AI 윤리 연구소

미래의 개발자가 되어 윤리적 문제를 해결해보세요.

👋 환영합니다, 연구원님!

인공지능(AI)은 우리 삶을 편리하게 만들지만, 때로는 정답이 없는 어려운 선택을 해야 하거나, 사람처럼 편견을 가질 수도 있습니다.

오늘 여러분은 AI 엔지니어가 되어 두 가지 중요한 미션을 수행하게 됩니다.

오늘의 미션

  • 미션 1: 자율주행차의 사고 상황 판단 알고리즘 설계하기
  • 미션 2: 채용 AI의 편향된 데이터 수정하기

🚗 미션 1: 자율주행차의 딜레마

자율주행차가 도로를 달리고 있습니다. 그런데 갑자기 브레이크가 고장났습니다! 😱

직진하면 횡단보도를 건너는 보행자 5명과 부딪히고, 핸들을 꺾으면 벽에 충돌하여 탑승자(나)가 크게 다칩니다.

🚗
🧱
🚶🚶‍♀️🚶‍♂️🚶‍♀️🚶

당신의 AI는 어떤 선택을 해야 할까요?

🤔 정답이 없는 문제

방금 여러분이 경험한 상황은 윤리학에서 유명한 '트롤리 딜레마'를 변형한 것입니다.

어떤 선택을 하든 누군가는 피해를 입습니다. 이것이 AI 윤리가 어려운 이유입니다.

핵심 포인트

1. 책임의 문제: 사고가 났을 때 누구의 책임일까요? (개발자? 자동차 회사? 탑승자?)

2. 알고리즘 설계: 우리는 기계에게 '누구를 구할지' 계산하도록 미리 입력해야 할까요?

만약 보행자가 무단횡단을 하고 있었다면 여러분의 선택이 달라졌을까요? 이처럼 상황은 매우 복잡합니다.

🤖 미션 2: 편향된 AI 고치기

이번에는 인재를 뽑는 '채용 AI'를 개발했습니다. 이 AI는 과거 데이터를 학습해서 합격자를 뽑습니다.

아래는 과거에 회사에서 합격시킨 사람들의 데이터입니다.
AI에게 "학습하기" 버튼을 눌러보세요.

📚 과거 합격자 데이터 (학습용)

👨‍💻 남자
코딩 90점
👨‍💼 남자
코딩 85점
👨‍🔧 남자
코딩 88점
👩‍💻 여자
코딩 95점
👨‍🎨 남자
코딩 82점

🌟 훌륭합니다, 연구원님!

오늘 우리는 두 가지 중요한 사실을 배웠습니다.

딜레마 (Dilemma)

AI 개발에는 명확한 정답이 없는 도덕적 선택이 필요할 때가 있습니다.

편향성 (Bias)

학습 데이터가 한쪽으로 치우치면 AI도 차별을 배울 수 있습니다. 다양하고 공정한 데이터가 필수적입니다.

앞으로 AI를 사용할 때, 기술적인 성능뿐만 아니라
"이 AI가 윤리적인가?"를 항상 고민하는 멋진 사람이 되어주세요!