본문 바로가기

교사의 삶

[AI수업실록] 6차시- 모럴머신으로 알아보는 인공지능AI 윤리 (자율주행자동차에서 트롤리딜레마) ‘트롤리 딜레마’라고 들어보셨나요? 영국의 철학자 필리파 풋과 미국의 철학자 주디스 톰슨이 고안한 사례입니다. 윤리와 공리주의를 설명할 때 많이 사용되던 사례였던 것 같습니다. 하지만 최근 자율주행자동차가 개발되고 발전함에 따라 자율주행자동차가 사고의 순간 '누구를 살릴 것인가?'의 문제로 이 트롤리 딜레마가 많이 언급되고 있습니다. 이 트롤리 딜레마는 간단히 보자면 '다수를 위해 소수를 희생시킬 것인가?' 묻는 윤리적 딜레마입니다. 저는 이 트롤리 딜레마에 대해 자세히 알지는 못하지만 자율주행자동차의 인공지능 관점에서 필요한 생각만 얕게 다뤄보겠습니다. [1] ☞ 상황1. : 브레이크가 고장난 트롤리가 선로를 따라 달려오고 있고 선로에는 인부5명이 일을 하고 있다. 당신은 선로 밖에 서 있고 앞에 선로.. 더보기
[AI수업실록] 5차시- 인공지능을 믿을 수 있을까? (편견반영 데이터) 이번 차시에는 편견이 반영된 데이터를 학습한 인공지능이 어떤 오류를 범하는지 살펴보겠습니다. 데이터에 어떻게 편견이 반영될 수 있을까요? 데이터를 수집한 사람이 그것을 의도했을까요? 그건 모르는 일입니다. 하지만 확실한건 데이터를 수집한 개발자가 의도하지 않았더라도 편견은 충분히 반영될 수 있습니다. [1] ☞ 글로벌기업 아마존 2018년 글로벌기업 아마존에서 신입사원을 채용하는 인공지능을 개발하였습니다. 그런데 얼마 지나지 않아 전량 폐기할 수밖에 없었습니다. 이유가 무엇일까요? 채용 인공지능을 실제 적용하기 전 최종 시뮬레이션을 해보았더니 남성지원자가 여성 지원자보다 지속해서 높은 점수를 받는 현상이 발견되었기 때문입니다. 개발자들은 당황했겠죠? 그래서 열심히 원인을 찾아보았습니다. 그들이 찾은 결론.. 더보기
[AI수업실록] 4차시- 인공지능을 믿을 수 있을까? (데이터양 편향) 인공지능은 무조건 신뢰할 수 있을까요? 결론부터 말씀드리면 ‘No!’입니다. 인공지능의 오류에도 다양한 종류가 있겠지만 중요하게 고민해야 할 오류 중 하나는 데이터 편향입니다. 데이터 편향도 데이터양에 의한 편향과 편견이 반영된 데이터로 생각해 볼 수 있습니다. 이번 차시에는 데이터양에 의한 편향에 대해 알아봅시다. [1] ☞ 구글 인공지능의 실수? 2015년 구글 포토가 뒤집어졌습니다. 흑인여성의 사진을 고릴라라고 분류해버린 것이죠. 사람들은 인공지능이 엄청 똑똑하다고 생각합니다. 그런데 왜 이런 일이 일어났을까요? 이는 구글 포토가 학습한 빅데이터에 이유가 있습니다. 지난 차시에서 인공지능이 빅데이터를 기반으로 학습하고 판단한다는 것을 확인했었습니다. 구글 포토의 학습데이터에 어떤 문제가 있었길래 흑.. 더보기
[AI수업실록] 3차시- 티처블머신으로 얼굴인식 인공지능(AI)만들기 1,2차시에서 인공지능의 개념과 특징, 원리 까지 알아보았으니 이번에는 간단한 인식 인공지능(AI)를 만들어봅시다. 티처블머신(Teachable Machine)을 활용한 수업이며 컴퓨터나 노트북, 내장된 카메라가 없다면 웹캠도 필요합니다. 오늘 만들어볼 간단 인식 인공지능은 우리 핸드폰에 사용되고 있는 얼굴 인식 기능과 비슷하답니다^^ https://youtu.be/YH7iCH7kty4?si=abP0C8y_m6eEdRMY 애플 페이스ID 광고영상 [1] ☞ 휴대폰은 어떻게 내 얼굴을 알아보는 걸까? *티처블머신에 들어갑니다. https://teachablemachine.withgoogle.com/ Teachable Machine Train a computer to recognize your own ima.. 더보기