미래의 개발자가 되어 윤리적 문제를 해결해보세요.
인공지능(AI)은 우리 삶을 편리하게 만들지만, 때로는 정답이 없는 어려운 선택을 해야 하거나, 사람처럼 편견을 가질 수도 있습니다.
오늘 여러분은 AI 엔지니어가 되어 두 가지 중요한 미션을 수행하게 됩니다.
자율주행차가 도로를 달리고 있습니다. 그런데 갑자기 브레이크가 고장났습니다! 😱
직진하면 횡단보도를 건너는 보행자 5명과 부딪히고, 핸들을 꺾으면 벽에 충돌하여 탑승자(나)가 크게 다칩니다.
당신의 AI는 어떤 선택을 해야 할까요?
방금 여러분이 경험한 상황은 윤리학에서 유명한 '트롤리 딜레마'를 변형한 것입니다.
어떤 선택을 하든 누군가는 피해를 입습니다. 이것이 AI 윤리가 어려운 이유입니다.
1. 책임의 문제: 사고가 났을 때 누구의 책임일까요? (개발자? 자동차 회사? 탑승자?)
2. 알고리즘 설계: 우리는 기계에게 '누구를 구할지' 계산하도록 미리 입력해야 할까요?
만약 보행자가 무단횡단을 하고 있었다면 여러분의 선택이 달라졌을까요? 이처럼 상황은 매우 복잡합니다.
이번에는 인재를 뽑는 '채용 AI'를 개발했습니다. 이 AI는 과거 데이터를 학습해서 합격자를 뽑습니다.
아래는 과거에 회사에서 합격시킨 사람들의 데이터입니다.
AI에게 "학습하기" 버튼을 눌러보세요.
AI가 학습된 데이터를 바탕으로 심사했습니다.
오늘 우리는 두 가지 중요한 사실을 배웠습니다.
AI 개발에는 명확한 정답이 없는 도덕적 선택이 필요할 때가 있습니다.
학습 데이터가 한쪽으로 치우치면 AI도 차별을 배울 수 있습니다. 다양하고 공정한 데이터가 필수적입니다.
앞으로 AI를 사용할 때, 기술적인 성능뿐만 아니라
"이 AI가 윤리적인가?"를 항상 고민하는 멋진 사람이 되어주세요!