본문 바로가기
AI

AI 발전에 따른 윤리와 규제 문제

by 으잇짜 2023. 6. 7.
반응형

1. 윤리적 기준을 알고리즘화

인공지능과 로봇의 발전은 인간 행동을 대체하는 업무에서 점점 더 중요한 역할을 맡고 있습니다. 인공지능 기술의 진보로 인해 자율적인 판단이 가능해지고, 최근에는 인공지능 설계 과정에서 윤리적 기준을 알고리즘 화하는 소프트웨어 방법이 개발되어 인간 통제 없이도 인공지능의 자율적인 윤리적 행동이 가능하다는 연구가 발표되었습니다.

 

2. 인공지능의 영향 : 윤리적,법적,사회적

이러한 인공지능의 발전은 윤리적, 법적, 사회적 영향에도 영향을 미치고 있습니다. 예상되는 바로는 인공지능 알고리즘이 탑재된 로봇이 인간의 가치판단과 의사결정 수준까지 가능해지므로, 기존의 인간 중심 규범 체계에 근본적인 변화가 필요하게 될 것입니다.

 

인공지능의
판단
판단 내용 예시 인공지능의
판단 능력
기술적 판단 일정한 정보에 따라 일률적/일괄적인 판단을 내려야 하는 경우,
변후가 정해져 있어 물리적 조건의 일반적 수준의 판단에 해당하는 경우
공학적 및 의학적 판단 공정,효율,일괄적인
판단 가능
법적 판단 성문화된 규볌에 의한 판단 교통볍규,마약사범 단속
,운동경기 심판
일괄적인 판단 가능
윤리적 판단 인강 행위의 옳고 그름에 관한 판단 전쟁터에서 살상행위,
생명유지 장치에 관한 결정,
무인차 접촉사고 등
변수가 많고,
일괄적이지 않은 판단 영역

 

3. 로봇윤리론과 로봇윤리의 중요성

지안마르코 베루지오(Gianmarco Veruggio)는 로봇을 사용하는 인간의 통제권, 로봇이 지켜야 하는 윤리적 규범, 인간 수준의 자율적인 윤리 판단에 관한 로봇윤리론(Roboethics)을 발표하였습니다.

로봇윤리론은 로봇 기술의 안전하고 지속 가능한 발전을 위해 필요하며, 로봇의 등장으로 발생할 수 있는 위험으로부터 안전을 확보하는 데 중요한 역할을 합니다.

 

4. 로봇윤리에 대한 최근 연구

최근에는 인공지능 선도국인 미국과 영국에서도 로봇과 인간의 관계, 로봇의 자율적 판단 규제, 로봇의 행동 규범 등에 대한 로봇윤리에 관한 연구가 발표되었습니다. 로봇윤리에는 로봇의 행동을 규정하는 로봇원칙, 인간과 로봇이 공존하는 관계를 강조하는 로봇선언, 로봇 설계, 사용, 운용에 있어서 법 규범을 준수해야 함을 강조하는 로봇행동규범 등이 포함되어 있습니다.

 

 

5. 인공지능과 로봇의 판단 역할

인공지능과 로봇의 판단은 인간의 기술적, 법적, 윤리적 판단을 대신하여 수행할 수 있습니다. 기술적 판단은 일정한 정보에 따라 일관 적인 판단을 내리는 경우나 물리적 조건의 일반적 수준의 판단에 해당하며, 상대적으로 일정하고 일관된 판단이 가능하여 인공지능이 인간보다 효율적이고 객관적인 판단을 할 수 있습니다. 법적 판단은 규범에 따라 판단하는 것으로, 이 역시 인공지능이 인간보다 효율적이고 객관적인 판단을 할 수 있습니다.

 

하지만 윤리적 판단은 인간 행위의 옳고 그름에 관한 판단입니다. 윤리 기준은 시간이 지남에 따라 변화하기 때문에 인공지능의 윤리적 판단은 문화나 시대에 맞지 않는 의사결정을 내릴 수 있습니다.

 

따라서 인간의 윤리적 판단은 여전히 필요하며, 인공지능의 판단과 인간의 윤리적 가치를 조화시키기 위해 계속해서 노력해야 합니다.


영국의 로봇원칙

영국의 로봇원칙은 "Britbot Principles" 또는 "UK Robot Principles"로도 알려져 있습니다.

이 원칙들은 로봇의 개발, 운용 및 사용에 있어서 윤리적인 가이드라인을 제공하기 위해 개발되었습니다.

주요한 영국의 로봇원칙은 다음과 같습니다:

 

1. 안전을 우선으로 한다 (Safety First)

로봇은 인간에게 위험을 일으킬 수 있는 행동을 하지 않도록 해야 합니다. 안전 기준과 규제를 준수해야 합니다.

 

2. 사생활을 존중한다 (Privacy Respected)

로봇은 사람들의 개인정보와 사생활을 존중해야 합니다. 개인정보 보호와 사생활 침해를 방지해야 합니다.

 

3. 윤리적 판단을 따른다 (Ethical Compliance)

로봇은 인간의 윤리적 기준과 법적 규정을 준수해야 합니다. 인간의 가치, 권리, 윤리적 가이드라인을 존중해야 합니다.

 

4. 공평성과 평등을 지킨다 (Fairness and Equality)

로봇은 공평성과 평등을 지키는 행동을 해야 합니다. 인종, 성별, 종교, 장애 등을 이유로 차별하지 않아야 합니다.

 

5. 책임추적이 가능하다 (Accountability Ensured)

로봇과 인공지능 시스템은 자신의 행동에 대해 책임을 질 수 있어야 합니다. 투명성과 책임 추적이 가능해야 합니다.

 

영국의 로봇원칙은 로봇과 인공지능의 개발과 사용에 있어서 윤리적인 가이드를 제공하여 안전하고 사회적으로 적합한 기술 발전을 지원하는 목적으로 만들어졌습니다. 이러한 원칙들은 로봇 및 인공지능의 윤리적인 개발과 사용을 장려하기 위해 공공 및 민간 부문에서 참고되고 적용되고 있습니다.


로봇공학의 3원칙

 

Law 0.

로봇은 인간성을 다치게 하거나, 게으름으로 인하여 인간성에 해가 되어 돌아와서도 안 된다

(A robot may not injure humanity, or, through inaction, allow humanity to come to harm).

 

Law 1.

위의법칙을 위반하지 않는한, 로봇은 인간을 다치게 해서는 안 되고, 게으름으로 인하여 인간에게 해가 되어 돌아와서도 안 된다 (A robot may not injure a human being, or, through inaction, allow a human being to come to harm, unless this would violate a higher order law).

 

Law 2.

첫 번째 법칙과 상충되는 명령을 제외하고는 로봇은 인간에 의해 주어진 명령에 복종해야 한다 ( A robot must obey orders given it by human beings, except where such orders would conflict with a higher order law).

 

Law 3.

로봇은 첫째 법칙과 둘째 법칙에 상충되지 않는 한도 내에서 그 자신의 존재를 보호할 수 있다 (A robot must protect its own existence as long as such protection does not conflict with a higher order law).

 

 


참고자료

인공지능로봇에 관한 형사법적 연구,2018/8,서울대학교 대학원 법학과 윤영석

http://www.aistudy.co.kr/robot/three_laws_robotics.htm

http://kocw-n.xcache.kinxcdn.com/data/document/2020/kmu/baejaekwon0609/13.pdf

 

반응형

loading