입력 : 2020-03-22 13:06:29
바티칸의 로마 교황청 소속 라이프 아카데미(Rome Call for AI Ethics)는 인공지능(AI) 기술이 급속도로 발전함에 따른 인간다움과 도덕관, 윤리의 상실을 막기 위해 AI 활용 시 지켜야 할 가이드라인(Rome Call for AI Ethics)을 발표했다.
이 문서는 로마 교황에게 승인받았으며, 마이크로소프트, IBM 역시 문서에 서명하고 동참을 선언했다. AI 개발 최전선에서 활약 중인 대형 IT 기업의 동참 소식은 향후 이 가이드라인이 업계 표준으로 자리잡는데 기여할 것으로 기대를 모은다.
가이드라인에서는 6가지 관점에서 AI 기술의 윤리적인 개발과 이용을 권장하고 있다.
1. 투명성(Transparency) : AI 기술은 기본적으로 설명이 가능할 것.
2. 포함(Inclusion) : AI 기술의 발전이 전 인류 한 사람 한 사람에게 혜택을 줄 것.
3. 책임(Responsibility) : AI 개발 및 활용에 대해서 책임지고 수행할 것.
4. 공평성(Impartiality) : 편견이나 차별에 근거해 AI 기술을 개발하거나 이용하지 말 것.
5. 신뢰성(Reliability) : AI 기술이나 서비스는 신뢰성을 갖출 것.
6. 보안과 프라이버시(Security and Privacy) : AI 기술은 보안을 지키고, 사용자의 프라이버시를 배려할 것.
교황은 오래 전부터 AI 기술의 윤리적 개발과 이용에 대해서 경고해 왔다. AI 기술을 활용한 서비스나 로봇에 의해 일자리를 잃는 것에 대해 우려하는 경우가 많지만, AI 기술의 보급은 시간문제여서 그 흐름을 멈출 수는 없다.
군사 분야의 경우 AI 기술 발전에서 가장 우려되는 분야다. 킬러 로봇으로 불리는 자율 의지를 갖춘 살상 병기(Lethal Autonomous Weapons Systems)가 사람들의 목숨을 위협할 수도 있다.
군사 분야에서의 AI 활용은 이미 활발히 진행 중이다. 로봇은 3D 즉 더럽고(Dirty), 지루하고(Dull), 위험한(Dangerous) 업무에 사람보다 적합해 향후 군사 분야에서의 AI 활용은 더욱 확산될 것이다. 그런 상황 속에서 AI를 탑재한 무기가 사람의 통제를 벗어나 일반인을 무참히 해칠 수도 있다.
도덕 및 윤리적인 관점에서 교황청 뿐만 아니라 각국 NGO 등도 AI 무기 개발에 반대하고 있다.
베타뉴스 우예진 기자 (leejik@betanews.net)
Copyrights ⓒ BetaNews.net
-
- 목록
- 위로