1.
로봇의 원칙은 사실 미국의 SF 소설가 아이작 아시모프가 소설속에서 기술한 내용입니다.
1942년에 처음 언급 되었다 하는데 거의 모든 작품에 해당 내용을 포함하고 있습니다.
사실상 학문적으로 이를 받아 들이고 있는 지는 알수 없습니다만,
아직은 이런 논리적인 판단을 독립적으로 수행할 수 있는 인공 지능이 상용화 되고 있지
않으므로 사실은 아직은 소설적인 내용이라 생각 됩니다. 물론 많은 인공 지능을 연구 하시는
분들이 가이드 라인으로 삼으시고 계신 것으로 알고 있습니다.
2.
많은 영화에서 보신 것 처럼 1) 인간을 해하면 안된다. 2)인간에게 절대 복종한다.
3) 자신을 보호한다라는 세가지 원칙이 단순한 내용은 아니어서 서로 상충되는 관계도 있고
(물론 원칙은 1항이 2항 3항에 우선하게 되어 있지만..) 인공지능의 판단 기준이 되는 시간이
얼만큼 긴시간 이냐에 따라서 합리적이 아니게 될 수 있습니다.
뭐 영화에서 처럼 지금은 원칙에 합당하나 시간이 지나면 결국은 위배 되는 경우 같은것이
그 예가 되겠습니다.
따라서 제 생각엔 그냥 소설로 보셔야 할 것 같고 실제 인공 지는 같은 경우에는 보다 많은
원칙과 제한이 있어야만 사용 가능하다 보여 집니다.
물론 이러한 내용은 단순 로봇이나 단순 컴퓨터가 아닌 스스로 판단 예측하는 인공 지능 /
혹은 인공 지능을 포함하는 로봇에만 해당 하는 경우 입니다.
3.
이건 사람들 마다 전부 생각이 다르겠지만..
개인적으로 로봇 (인공지능) / 인간의 경계는 양심이나 후회가 아닐까 생각 되네요..