로봇 3원칙

로봇 3원칙

작성일 2023.11.23댓글 1건
    게시물 수정 , 삭제는 로그인 필요

학교 수행인데.. 로봇 3원칙을 만든 이유를 인간의 입장과 인공지능 입장에서 자세하게 알려주세요 ㅠㅠ


#로봇 3원칙 #로봇 3원칙 허점 #로봇 3원칙 문제점 #로봇 3원칙 필요성 #로봇 3원칙 인공지능 #로봇 3원칙 모순 #로봇 3원칙이 필요한 이유 #로봇 3원칙 보완 #로봇 3원칙 위배 #로봇 3원칙 충돌

profile_image 익명 작성일 -

스스로 판단해 화기를 발사하는 ‘킬러로봇’이 곧 현실화된다고 한다. 과연 이런 ‘터미네이터’는 인간의 통제를 벗어나 재앙을 가져올까, 아니면 유명한 ‘로봇 3원칙’처럼 윤리적 시스템을 도입해 대비할 수 있는 걸까. 로봇윤리에 대한 논쟁은 일상생활에 깊숙이 들어온 수많은 ‘봇(bot)’들에 대해서도 활발하게 진행 중이다. 과연 인간은 로봇에게 윤리를 가르칠 수 있을까.

'윤리적 민감성'을 갖추지 못한 채 프로그래밍된 행동만 하는 로봇이 인간에게 미치는 해는 예측하기 어렵다. 전투로봇만 해당되는 것이 아니다. 일상 곳곳에 스며든 자동화 시스템은 의도하지 않고도 인간에게 해가 될 행동을 얼마든지 할 수 있기 때문이다. 최근 ‘로봇윤리’가 세계적인 화두로 떠오른 이유다.

로봇이 스스로 판단해 총을 쏜다면

가장 시급한 분야는 군사용 전투로봇이다. 전장에서 로봇이 활용된 지는 10년이 훌쩍 지났지만, 최근에는 로봇이 스스로 판단해 화기 사용 여부를 결정할 수 있을 만큼 인공지능이 고도화됐기 때문이다. 영국 BBC 방송이 5월 21일에 보도한 바에 따르면, 많은 군사전문가들은 영국의 퀴네티크(QinetiQ) 북미지사가 내놓은 ‘마르스(MAARS)’ 전투로봇에 우려를 표하고 있다. 인간병사를 엄호하는 이 전투로봇은 현재는 인간병사가 원격으로 제어하고 작동 범위도 약 800m로 제한돼 있지만, 인공지능이 발전함에 따라 언제고 ‘터미네이터’처럼 치명적인 로봇으로 변신할 가능성이 크다는 것이다.

영국 셰필드대 로봇인공지능학과 노엘 샤키 교수는 비판의 선봉장이다. 그는 지난해 4월, 로봇학자 및 국제 인권단체들과 함께 ‘킬러로봇 반대(Stop Killer Robot)’ 캠페인을 발족했다. 영국 BBC와의 인터뷰에서 그는 “킬러로봇은 10년 이내에 상용화 될 것”이라며 “전투 로봇이 제네바 협약 같은 국제규칙을 어길 수 있다”고 지적했다. 올해 8월 28일에는 유엔 군축 담당 고위대표인 안젤라 케인이 “킬러로봇의 개발을 법적으로 금지해야 한다”고 강경하게 주장했다.

로봇은 아직 장난감 총과 진짜를 구분 못한다

논란의 핵심은 로봇이 사람에게 총을 쏘는 걸 판단할 만큼 충분히 똑똑하거나 윤리적이지 않다는 것이다. 예를 들어 어떤 킬러로봇이 아이와 어른 여부, 총을 들었는지 여부, 군복을 입었는지 여부 등 3가지 항목으로 민간인과 군인을 비교하도록 프로그래밍 됐다면, 장난감 총을 들고 짙은 녹색 옷을 입은 소년을 군인으로 오인해 사격하기 쉽다. 사람은 피부에 스치는 바람, 풍기는 냄새, 들려오는 소리 등 다양한 정보를 종합해 비교적 정확하게 상황을 판단할 수 있지만, 컴퓨터는 2차원 영상을 이용하므로 융통성 있는 판단이 거의 불가능하다.

최종판단은 사람이 했으므로 조금 다른 예지만, 중동 예멘공화국에서 오폭 사고가 몇 차례 있었다. 2012년 9월 2일(현지시간), 알 카에다를 노리던 미군 무인기가 민간인을 오인 사격하는 바람에 최소 13명이 숨졌다. 2011년에도 두 차례 무인기 오폭으로 민간인 40명이 목숨을 잃었다. 김수현 KAIST 기계공학과 교수는 “인간 정찰병 없이 무인기를 통해 전송된 영상의 패턴만 분석하다 보니 민간인과 군인을 제대로 구별하지 못한 것”이라고 말했다.

과연 로봇에 윤리를 가르치는 게 가능할까

반면, 미국 조지아공대 로널드 아킨 교수는 “전쟁에 관한 국제법이나 교전수칙을 지키도록 로봇의 성능을 개선하는 것도 가능하다”며 “윤리적인 로봇 시스템을 도입하면 전쟁터에서 발생하는 민간인의 희생을 줄일 수 있다”고 반박한다. 그의 말을 증명하려는 듯, 5월 14일 미군은 로봇에 도덕을 가르치는 연구를 위해 미국 예일대와 조지타운대에 5년간 미화 750만 달러(한화 약 79억 원)를 지원할 계획이라고 밝혔다. 과연 로봇에게 윤리를 가르칠 수 있을까.

아직 걸음마 단계이지만, 윤리적 소프트웨어를 만들려는 다양한 시도가 있다. 미국 예일대 생명윤리 학제간 센터 웬델 월러치 교수와 인디애나대 과학철학사 및 인지과학과 콜린 알렌 교수는 저서 ‘왜 로봇의 도덕인가’에서 세 가지 접근법을 소개했다. 도덕적인 원칙에 맞춰 로봇의 판단을 결정하는 ‘논리 기반 접근법’, 다양한 사례에서 자신의 판단 근거를 찾아내는 ‘사례 기반 접근법’, 여러 사람의 행동이 맞부딪힐 때 어떤 결과를 낳는지 시뮬레이션해서 최적의 행동을 찾아내는 ‘다중 행위자 접근법’ 등이다.

ROBOT 1. 논리 기반 접근법 - 큰 원칙을 알려주고 판단하게 한다

미국 렌슬레어공대 셀머 브링스요드 박사는 인류의 윤리적 체계를 프로그래밍하는 방법을 연구하고 있다. 예를 들어 현재 이용되는 인공지능은 “눈 앞에 장애물이 나타나면 피해라”라는 ‘행동 규칙’을 넣어주는 데 반해, 브링스요드 박사의 접근법은 “생명은 소중하다”는 큰 원칙을 프로그래밍 해준 뒤, 로봇이 스스로 사고를 피하는 방향으로 행동하게끔 해주는 것이다.

그가 개발한 프로그램 하나는 ‘최대다수의 최대행복’이라는 공리주의 원칙에 따라 결정을 내린다. 이 인공지능을 탑재한 돌봄 로봇은 환자의 생명유지장치를 끌지 여부를 결정해야 할 상황에서 공리주의 규범에 따라 결정을 내릴 것이다. 이런 접근 방법은 사람의 사고체계와 비슷해 윤리적인 인공지능을 만드는 데 가장 옳은 방법이라는 장점이 있다. 그러나 사람도 결정을 내리기 어려운 복잡한 상황에는 적합하지 않다.

ROBOT 2. 사례 기반 접근법 - 인간이 내린 판단에서 배운다

기존 사례에서 윤리적 추론을 끌어내는 프로그램도 있다. ‘메드에덱스(MedEthEx)’라는 프로그램이 대표적이다. 컴퓨터 과학자 마이클 앤더슨과 철학자 수전 앤더슨 부부가 설계한 의학윤리 전문가 시스템이다. 이 시스템은 여러 의무가 상충할 때, 과거의 구체적인 사례에서 인간 의료전문가가 내린 결정을 참고해 자신의 의무들을 비교 평가한다.

이 방법은 상충하는 의무들 사이에서 균형을 잡을 수 있다는 게 장점이다. 예를 들어, 환자를 돌볼 의무와 환자의 자율성을 존중할 의무 사이에서 딜레마에 빠졌을 때 로봇은 두 의무에 할당된 값을 체크한다. 그리고 환자를 돌볼 의무에 할당된 값이 정해진 값을 넘어가게 되면(즉 환자가 위험한 상태가 되면) 그 때는 환자의 자율성을 존중할 의무를 저버리고 주치의에게 연락한다.

ROBOT 3. 다중 행위자 접근법 - 다양한 경우의 수를 계산한다

컴퓨터과학자 빈센트 비겔은 미국 델프트대에서 공부하던 2007년, 박사학위 논문을 위해 ‘소포랩(SophoLab)’이라는 플랫폼을 개발했다. 이 프로그램은 윤리적 판단을 할 수 있는 여러 행위자들의 상호작용을 시뮬레이션 한다. 이들은 상황에 따라 다른 의도를 가지고 행동할 수 있다.

이런 ‘다중행위자 플랫폼’을 사용하면 실제 사회와 같은 복잡한 네트워크 속에서 윤리적 판단을 내릴 수 있다. 예를 들어, 환자와 의사, 간호사, 보험회사 직원 등 다양한 사람이 환자의 개인 정보에 접속할 때 누구에게 어떤 권리를 주는 것이 바람직한지 이 프로그램을 통해 미리 시뮬레이션 해 볼 수 있다. 비겔 박사는 향후 이 시스템을 무인카에 적용할 수 있을 것으로 보고 있다. 무인카는 사고를 피하기 위해 교통 법규를 위반해야 할 수도 있는데, 이 때 자신의 행동이 다른 차에 미치는 위험을 비교해 융통성 있게 결정할 수 있다.

터미네이터의 악몽에서 벗어나려면

일부 로봇 전문가는 윤리적 소프트웨어나 로봇윤리 로드맵(박스 기사 참조)에 거부감을 느끼기도 한다. 로봇에게 윤리를 가르친다는 목표 자체가 인간적이지 않다고 생각하거나, 첨단 로봇기술을 규제하려는 수단으로 보는 것이다. 그러나 로봇윤리 개념을 최초로 세운 이탈리아 국립로봇연구원 장마르코 베루지오 교수는 이런 시각이 오해라고 말한다. 그는 “로봇윤리는 로봇기술을 반대하는 논리가 아니다”라며 “로봇기술의 긍정적 확산을 위해 우리가 지금 무엇을 해야 하는지 논의하자는 것”이라고 말했다.

인류의 역사에서 기술윤리는 늘 해당 기술보다 훨씬 늦게 발달해 왔다. 기술의 편리함에 취해 이점을 누리다가 나중에서야 그 부작용과 해악을 깨닫고 소 잃고 외양간 고치듯 윤리를 논한 것이다. 그런 측면에서, 로봇기술이 재앙을 몰고 오기 훨씬 이전에 로봇윤리를 정립하려는 현재의 노력은 매우 바람직하다고 볼 수 있다. 이제 인류는 ‘터미네이터’의 악몽에서 벗어날 때를 맞았다. 마침 올해는 영화 ‘터미네이터’가 나온 지 딱 30년이 되는 해다.

로봇윤리 10년… 아직 공감대 부족

유럽의 로봇공학계는 윤리 문제를 일찌감치 공론화했다. ‘로봇윤리(Roboethics)’란 단어도 지난 2004년 이탈리아 산레모에서 ‘제1회 로봇윤리 국제심포지엄’이 열리면서 학계에 정립됐다. 당시 EU 산하 유럽로봇연구네트워크(EURON)는 3년 동안 로봇윤리 로드맵을 만드는 사업을 시작했다. 그리고 그 결과를 2007년 4월 10일 이탈리아 로마에서 열린 국제로봇자동화학회(ICRA)에서 공개했다. 당시 한국정부도 이 학회에서 로봇윤리헌장을 발표했다. 다음과 같은 내용이다.

· 1장(목표)=로봇윤리헌장의 목표는 인간과 로봇의 공존공영을 위해 인간중심의 윤리규범을 확인하는 데 있다.

· 2장(인간, 로봇의 공동원칙)=인간과 로봇은 상호간 생명의 존엄성과 정보, 공학적 윤리를 지켜야 한다.

· 3장(인간 윤리)=인간은 로봇을 제조하고 사용할 때 항상 선한 방법으로 판단하고 결정해야 한다.

· 4장(로봇 윤리)=로봇은 인간의 명령에 순종하는 친구ㆍ도우미ㆍ동반자로서 인간을 다치게 해서는 안 된다.

· 5장(제조자 윤리)=로봇 제조자는 인간의 존엄성을 지키는 로봇을 제조하고 로봇 재활용, 정보보호 의무를 진다.

· 6장(사용자 윤리)=로봇 사용자는 로봇을 인간의 친구로 존중해야 하며 불법개조나 로봇남용을 금한다.

· 7장(실행의 약속)=정부와 지자체는 헌장의 정신을 구현하기 위해 유효한 조치를 시행해야 한다.

그러나 이 시도는 오래 지속되지 못했다. 사회적인 이해와 공감대가 부족하다 보니 로봇윤리헌장은 학술적 권고안에 그쳤던 것이다. 김수현 KAIST 기계공학과 교수는 “기술의 발전을 인위적으로 늦출 수 없다는 측면에서 윤리헌장은 현실성이 부족하다”고 말했다. 로봇윤리 로드맵이 서두에서 ‘로봇의 윤리(Ethics of Robot)란 없다’라는 역설적인 전제로 출발하는 건 그래서다. 향후 10년간 로봇이 자아를 지닌 존재로 진화할 가능성은 무척 낮기 때문에, 현 시점에서 로봇윤리란 로봇을 제조하고 사용하는 ‘인간의 윤리(Ethics of Human)’가 더 중요하다. 로봇을 올바르게 사용하고자 하는 인간윤리가 사회에 깊게 뿌리내리지 못한다면, 로봇윤리헌장을 지키자는 약속도, 로봇에 인위적인 도덕을 이식한다는 공학적 목표도 모두 실패할 것이다.

로봇 3원칙

... 로봇 3원칙을 만든 이유를 인간의 입장과 인공지능... 3원칙’처럼 윤리적 시스템을 도입해 대비할 수 있는... 도덕적인 원칙에 맞춰 로봇의 판단을 결정하는 ‘논리 기반...

로봇 3원칙

... 궁금하네요...... 로봇3원칙을 계속 지킬겁니다. 왜냐하면 이미 로봇 제 3원칙이 프로그래밍 되있고, 로봇의 '법' 이기 때문에 법을 어기지 안을 것입니다.

로봇3원칙과 강한 인공지능 질문이요

로봇 3원칙을 따르면 강한 인공지능을 못만드는건가요? 제1법칙:로봇은 인간에게 해를... ====================================================================== 공식적으로 만들지 않는게 원칙...

로봇 3원칙에 대해서

로봇 3원칙 중 제일 수위에 있는 제 2원칙은 로봇은 인간을 해칠 수 없다고 했는데... 3원칙이 지켜질 수 있는 건가요? 로봇 3원칙은 일단 아래와 같죠 1조.로봇은 인간에게 해를...

새로운 로봇 3원칙 만들기

로봇 3원칙이라는 게 존재하는데 여기서 본인이 생각하시는 문제점과 그걸 보완할 수 있는 새로운 로봇 삼원칙을 지어주세요. 제1원칙: 로봇은 인간에게 해를 입혀서는 안...

로봇3원칙

1.로봇3원칙은 의무인가요? 예를들어 어떤로봇을 만드려면 로봇3원칙을 꼭 프로그래밍해야하나요? 2.의무라면 군사목적으로만든 로봇군인,전쟁에쓰이는 드론같은것은...

로봇 3원칙

... 1.로봇 3원칙이 왜 생겼나요 2.그원칙이 합리적이라고 생각되나요 3.로봇과 인간의... 로봇의 원칙은 사실 미국의 SF 소설가 아이작 아시모프가 소설속에서 기술한...

로봇 3원칙 필요한 이유좀 알려주세요

로봇 3원칙은 뭔지 아는데 각각의 원칙이 왜 필요한지 알려주시면 감사하겠습니다!! 안녕하세요?? 저는 책덕후로서 책을 엄청 많이 읽는 사람입니다. 코로나 이후 미래에...

로봇 3원칙이 실제로도 로봇들에게...

로봇 3원칙이 실제로도 로봇들에게 적용되고 있나요? 로봇 3원칙은 아이작 아시모프가 쓴 소설에 나오는 설정일... (원칙이 말은 쉬워보이지만 3개의 원칙 사이에 헛점도 많고...