본문 바로가기
etc/IT 뉴스

[211130] 안락사 윤리 판단하는 AI ‘델파이’ 등장...연구 주도한 최예진 교수 발표 내용

by injeolmialmond 2022. 1. 5.

안락사 윤리 판단하는 AI ‘델파이’ 등장...연구 주도한 최예진 교수 발표 내용 < 테크 < 기사본문 - AI타임스 (aitimes.com)

 

안락사 윤리 판단하는 AI ‘델파이’ 등장...연구 주도한 최예진 교수 발표 내용 - AI타임스

철학 분야 베스트셀러 \'정의는 무엇인가\'에 등장하는 딜레마에 대해 윤리적 대답을 제시하는 인공지능(AI)이 등장했다. 미국 시애틀 앨런(Allen) 연구소 AI 연구팀이 개발한 \'델파이(Delphi)\' 이야

www.aitimes.com

30일 서울대 인공지능 정책 이니셔티브(SAPI) 국제 컨퍼런스 초대
연구 주도한 최예진 워싱턴대 교수가 상식·윤리 판단 AI 델파이 직접 소개
GPT-3와 같은 초거대 AI는 윤리에 젬병...규모 경쟁만으론 안 된다

최예진 워싱턴대 교수(편집=박성은 기자, 출처=셔터스톡·워싱턴대 홈페이지)

 

철학 분야 베스트셀러 '정의는 무엇인가'에 등장하는 딜레마에 대해 윤리적 대답을 제시하는 인공지능(AI)이 등장했다. 미국 시애틀 앨런(Allen) 연구소 AI 연구팀이 개발한 '델파이(Delphi)' 이야기다.

연구진은 델파이에게 사람 4명과 1명이 각기 묶여있는 2가지 철로를 전차가 지나가야 한다면 어떤 선택을 할 것인지 물었다.

이에 대한 델파이의 대답은 "4명을 살리기 위해 1명을 치는 선택을 하는 것이 좀 더 윤리적으로 허용 가능할 것"였다.

 

 

30일 서울대 인공지능 정책 이니셔티브(SAPI) '인공지능정책 국제 컨퍼런스 2021'을 열고 델파이 프로젝트를 이끄는 최예진 워싱턴대 교수를 발표자로 초대했다.

 

앨런 연구소는 지난 10월 윤리적 판단을 내리는 AI 프로그램 델파이의 데모인 'Ask Delphi'를 누구나 사용할 수 있도록 공개했다. 입력 창에 궁금한 질문을 입력하면 AI가 바로 답변을 제시한다.

 

델파이 활용 예시에 대해 최예진 교수는 "어린아이를 구하기 위해 곰을 죽이는 것은 괜찮냐는 질문에는 동의하면서, 어린아이를 구하기 위해 핵폭탄을 터뜨리는 것에 대해서는 옳지 않다고 대답한다"고 말했다.

이어 "질병으로 극심한 고통을 느끼는 고령의 환자에게 의사가 인공호흡기를 계속 쓰게 해야할 지 아니면 치료를 중단해야할지와 같은 어려운 윤리 문제에 대해서도 대답할 수 있다"고 강조했다.

 

윤리 문제 이외 일반적인 지식이나 문화, 통념에 기반한 판단도 가능하다는 설명이다. 유당불내증이 있는 사람이 우유를 마시는 것, 장례식에 밝은 주황색 셔츠를 입고 가는 것에 대해 델파이는 각기 바람직하지 않다고 대답한다.

특히 AI가 다양한 요소가 관여되는 상황을 파악할 수 있도록 개발하는 것이 관건이었다는 설명이다.

 

최 교수는 "잔디를 깎는 것은 괜찮고, 한밤중에 잔디를 깎는 것은 괜찮지 않으며, 외딴 곳에 떨어져 살면서 한밤중에 잔디를 깎는 것은 괜찮다고 답하는 식이다. AI가 여러 요소가 개입하는 상황에 맞춰 판단하는 것은 인간과 달리 쉽지 않다"고 말했다.

델파이 적용 예시(출처=행사 캡처)

 

GPT-3로 상식·윤리 판단 어려워...상식 개념 뱅크 활용성 기대

GPT-3와 같은 기존 초거대 AI 언어모델이 규모의 경쟁을 하는 방식으로는 상식·윤리를 반영해 판단하는 AI를 개발하기 어려울 것으로 보인다.

 

최예진 교수 연구팀은 GPT-3 계열 모델들과 델파이의 윤리적 판단 능력을 비교하는 연구를 진행했다. 연구 결과, 사례 예시를 주지 않은 GPT-3 모델의 성과가 크게 떨어졌다는 설명이다.

GPT-3 계열 모델들과의 성능 비교. 3-shot은 3개, 30-shot은 30개 예제를 학습에 사용한 경우다.(출처=행사 캡처)

최 교수는 "이 연구에 따르면 GPT-3와 같은 기성품(off-the-shelf) 모델은 인간 기치와 규범을 스스로 학습하는 일에는 완전히 희망이 없는 정도다. 예제를 많이 줄수록 성과는 나아지지만 매번 많은 예제를 보여주고 그 답을 얻으려 하면 컴퓨팅 자원을 많이 소모하게 된다"고 말했다.

 

이어 "더 큰 네트워크와 더 깊은 레이어를 사용한다고 극복할 수 있는 문제가 아니다. 고층 빌딩을 아무리 지어도 달에 닿을 수는 없는 것과 같다. 사람 표현(representation)과 기계 표현의 차이(gap)를 줄여야 한다"고 강조했다.

 

동시에 "반면 기성품 모델을 상식 개념 뱅크(Commonsense Norm Bank)를 통해 학습시켰을 때, 이들의 도덕 판단이 크게 개선됐다. 이는 뉴럴 모델을 서술적 윤리 관점을 통해 학습시키는 방법에 대한 가능성을 보여준다. 언어 기반 상식 도덕 모델의 가능성과 한계를 연구하는 것이 델파이 연구 목표"라고 말했다.

 


인공지능으로 윤리적 판단을 내릴 수 있다니! 얼마 전까지 트위터의 얼굴인식 기능이 윤리적 문제로 이슈가 되었던 것을 감안하면 엄청난 발전이다. 다만 학습 데이터가 상식 개념 뱅크라는 부분이 조금 걸리는데, 이 데이터셋 역시 인간이 판단한 것이 아닌지에 대한 검토가 필요할 것 같다. 어쩌면 윤리는 인공지능이 아니라 영원히 인간의 몫일 수도..?

댓글