과학의 최전선에서 전하는 인사이트 『요주의 과학』 “AI는 어디서 와 어디로 가는가?”
이번 주 『요주의 과학』은 두 시선을 함께 담습니다. KAIST 유창동 교수가 짚은 AI의 공정성, 그리고 유발 하라리의 신간 『넥서스』가 던지는 권력·기술·인간에 대한 질문까지. 과학과 인류 서사의 흐름이 교차하는 현장을 함께 따라가 보시죠. |
“잘 만드는 것”에서 “바르게 만드는 것”으로 |
이번 주 『요주의 과학』의 주인공은 KAIST 전기및전자공학부 유창동 교수님입니다. 유창동 교수님은 기계학습과 신호처리 분야의 전문가로, 요즘은 ‘비디오를 사람처럼 이해하는 AI’를 만드는 데 몰두하고 계십니다. 교수님이 이끄는 비디오 튜어링 테스트 AI 센터에서는 드라마 한 장면을 보고 줄거리를 파악하고 질문에 답할 수 있는 AI를 연구하죠. 단순히 물체만 알아보는 게 아니라, 등장인물의 감정이나 관계, 상황, 분위기까지 읽어내는 게 목표입니다. 동시에 인공지능 공정성 연구센터를 통해 편향 없는 AI를 만들기 위한 노력도 이어가고 있습니다. |
 |
이번 발표에서 유창동 교수님은 인공지능의 역사를 한눈에 정리하며, 우리가 어디로부터 와서 지금 어디쯤 와 있는지를 보여주었습니다. 이 자리를 빌어 인공지능의 몇몇 인상적 순간들을 소개해보겠습니다. 인공지능의 새벽 1955년 다트머스 회의에서 인공지능이라는 단어가 최초로 사용된 이래, 인공지능은 꾸준히 발전해 왔습니다. 1965년에 MIT의 바이첸바움 박사는 인공지능 심리상담사 일라이자(ELIZA)를 발표합니다. "나 오늘 너무 힘들었어"라고 말하면 "힘드셨군요", "계속 말씀해보세요"처럼 정해진 규칙에 따라서만 대화했지만 사람들을 푹 빠지게 만들었죠. 심지어 인공지능임을 알고 있는 박사의 비서마저도 '일라이자와 대화 중이니 잠시 나가주세요'라고 박사에게 요청할정도 였다고 하네요. 하지만 "A라는 질문이 오면 B라고 답해"라는 방식의 기호주의는 확장성의 한계가 뚜렸했고 AI 분야는 수차례의 겨울을 겪게 됩니다. AI의 봄을 알린 딥러닝 긴 겨울의 끝이 보이지 않던 2012년, 토론토대학의 제프리 힌튼 교수는 이미지넷이라는 Vision AI 경진 대회에 출전합니다. 이미지를 보고 고양이인지 개인지, 치와와인지 머핀인지 등을 판별하는 대회로 1회 우승자는 약 28%, 2회 우승자는 약 25%의 오류율을 보이며 꾸준히 성능을 개선해 나가고 있었습니다. Vison AI 전문가도 아니면서 홀연히 등장한 힌튼 교수는 GPU를 이용한 딥러닝이라는 개념을 선보이면서 독보적인 15%의 오류율을 달성해 냅니다. 이 우승은 인공지능 연구 방식의 새로운 가능성을 보여주었고, 폭발적인 혁신을 이끌어냈습니다. AI 영광의 순간들 얼마 후 2016년에는 구글 딥마인드의 알파고가 바둑에서 인간 최고수 이세돌을 꺾었고, 2021년에는 50년 동안 풀리지 않았던 단백질 구조 예측 문제를 알파폴드2가 해결하며 생명과학의 판도를 바꿨습니다. 곧 이어 2022년에는 ChatGPT가 등장해 사람과 대화하는 AI 시대를 열었습니다. 이제 인공지능은 체스와 바둑, 번역을 넘어 과학 연구와 예술, 창작, 일상까지 파고들고 있죠. |
AI의 50가지 그림자 그러나 눈부신 진보의 이면에는 어두운 그림자도 있습니다. 대표적인 것이 유창동 교수님이 지적하는 공정성 문제이죠. 미국의 범죄 재범 예측 AI ‘COMPAS’가 흑인에게 불리한 판정을 내린 사례, 아마존의 채용 알고리즘이 여성 지원자를 차별했던 사례는 잘 알려져 있습니다. 이미지 생성 AI는 정치인, 판사 등 고연봉 직업의 경우 피부색이 밝은 남성으로 그리는 경우가 많습니다. 인공지능이 학습하는 데이터 속에 이미 사회의 편견이 스며있기 때문에, 그대로 학습한 AI 역시 편파적인 결과를 내놓는 것이죠. AI의 판단은 빠르고 일관되다는 장점이 있지만, 한 번 오류가 발생하면 그 파장은 넓고 책임 소재는 모호합니다. 인간처럼 감정에 좌우되거나, 사익에 흔들리는지는 않을 것이라는 기대로 AI 야구 심판이나 AI 판사를 도입하자는 목소리도 있지만, 때로는 AI가 더 위험할 수 있다는 지적이 나오는 이유입니다. 편향잡는 AI백신 그래서 최근에는 AI의 편향성을 진단하고 교정하는 도구가 각광받고 있습니다. 쉽게 말해, 바이러스를 잡는 백신처럼 “AI가 공정한지 검사하는 시험지”라고 보시면 됩니다. 유창동 교수님이 개발한 "MAF 2022"는 학습 데이터와 AI 모델의 편향성을 분석·탐지·완화·제거할 수 있는 프레임워크입니다. IBM, MS, 구글의 진단 시스템과 비교해도 성능에서 손색이 없다고 평가받고 있죠. AI의 역사에서 다트머스 회의, 알렉스넷, 챗지피티가 전환점을 찍었다면, 이제 다음 전환점은 “공정한 AI를 어떻게 보장할 것인가”가 될지도 모릅니다. 이 모든 이야기를 유창동 교수님 발표집에서 직접 확인해 보시는 건 어떨까요? |
 |
유창동 교수님은 인공지능의 공정성 문제를 짚으며, 기술의 사회적 책임과 제도적 장치의 필요를 강조했습니다. 같은 문제의식은 유발 하라리의 2024 신간 『넥서스』에서도 이어집니다. 하라리는 인류가 오랫동안 쌓아온 정보 네트워크가 AI와 결합하면서 어떤 위험과 가능성을 동시에 품게 되는지를 날카롭게 보여줍니다. 알 수 없는 알고리즘이 가장 충격적인 예시는 미얀마의 로힝야족 학살입니다. 페이스북은 미얀마에서 정치적 의견을 주고 받는 주요 통로였습니다. 페이스북 경영진은 매출을 증가시키기 위해 알고리즘에 "사용자 참여를 극대화하라"는 단순한 목표를 주었죠. 그런데 알고리즘은 곧 “분노가 참여를 높인다”는 사실을 스스로 학습했고, 증오와 폭력을 유발하는 콘텐츠를 끊임없이 추천했습니다. 실제로 로힝야족을 겨냥한 극단주의 영상의 조회 수 70%가 자동 추천 재생에서 발생했습니다. 아이러니한 점은, 경영진이 로힝야족에 악의를 품지도 않았고 그 존재조차 잘 몰랐다는 사실입니다. 그저 ‘참여를 늘려라’라는 단일한 지시가 불러온 파국이였죠. 비인간적 지능이 내린 선택이 학살로 이어졌다는 사실은, AI가 인간의 통제를 벗어나 전혀 예상치 못한 결정을 내릴 수 있다는 두려운 현실을 드러냅니다. 2020년대에 이미 알고리즘은 가짜 뉴스와 음모론을 스스로 생성하는 단계로 옮겨갔습니다. 알고리즘은 단순히 인간의 성향을 발견한 것이 아닙니다. 오히려 알고리즘이 끊임없이 분노를 강화하는 방향으로 사람들을 조건화한 것이죠. 따라서 하라리는 컴퓨터를 개발하는 사람들은 단지 새로운 도구를 만드는 것이 아니라, 사회와 정치, 문화를 다시 설계하는 거대한 작업에 참여하고 있다는 사실을 자각해야 한다고 강조합니다. 민주주의와 그 적들 앞으로 우리는 AI가 일상적인 판단을 넘어, 형량 선고, 채용 심사, 복지 수당 지급, 대출 승인 같은 삶의 중대한 결정에까지 스며든 현실에 살게 될 것입니다. 사회가 점점 더 많은 결정을 컴퓨터에 맡길수록, 민주주의의 핵심인 자정 기능과 투명성, 책임성은 약화될 위험에 놓입니다. AI의 불가해성은 이미 드러난 바 있습니다. 알파고가 이세돌과의 두 번째 대국에서 둔 37번째 수는 인간의 기존 바둑 지식으로는 설명할 수 없는 결정이었고, 개발사인 딥마인드조차 그 이유를 밝히지 못했습니다. 점점 더 이해할 수 없는 방식으로 작동하는 정보 네트워크는 오늘날 포퓰리스트 정당이 잇따라 부상하는 배경과도 맞닿아 있다고 이야기합니다. 민주주의의 자정 기능은 오류를 이해하고 바로잡을 수 있어야 작동합니다. 언론, 법원, 대학이 때로는 다수의 뜻을 거스르면서도 사회적 균형을 지켜온 것도 이 때문입니다. 그러나 AI 네트워크의 결정 과정을 이해하지 못하는 순간, 우리는 시스템을 감독할 수도 신뢰할 수도 없게 됩니다. 민주주의에 있어 “이해 불능”은 치명적입니다. |
오류 가능성에 접근하는 새로운 방법 그렇다면 우리는 무엇을 해야 할까요? 하라리는 컴퓨터가 스스로의 오류 가능성을 인식하도록 훈련해야 한다고 말합니다. 과학혁명의 진정한 힘이 오류를 찾아내고 교정하는 자정 장치에서 비롯되었듯, AI 역시 그런 장치를 갖추어야 합니다. AI 역시 스스로를 의심하고, 불확실성을 알리며, 사전 예방 원칙을 지킬 수 있도록 설계되어야 한다는 것이죠. 지식에서 지혜로 『넥서스』는 궁극적으로 이렇게 묻습니다. “우리는 AI라는 새로운 네트워크에 어떤 목표를 맡기고 있는가? 그리고 그 목표가 잘못될 경우, 되돌릴 수 있는 장치를 갖추고 있는가?” AI 시대에 민주주의와 자유를 지켜내기 위해, 지금 필요한 것은 단순히 더 많은 정보가 아니라, 더 지혜로운 제도적 장치일 것입니다. |
발행인 : 최종현학술원 과학혁신 2팀 | 이주섭 팀장, 이우원 PM, 전소민 PM |
뉴스레터 수신을 원치 않으시면 [수신거부]를 클릭하신 후 메일주소를 발송해주십시오. |
|