본문 바로가기
기술

인간 다워지는 인공지능(AI)과 위협을 막으려는 인류

by MINK1016 2024. 5. 28.
반응형

인간 다워지는 인공지능(AI)과 위협을 막으려는 인류

 

이번 주, 인공지능(AI) 업계는 쉴 새 없이 ‘사건’이 터졌습니다. 챗GPT를 만든 오픈AI는 지난해 말 샘 올트먼 오픈AI 최고경영자(CEO) 축출의 원인으로 꼽혔던 ‘안전팀’을 전격 해체했습니다. 미국의 유명 배우 스칼렛 요한슨은 GPT-4o가 제공하는 음성 서비스의 ‘목소리’가 자신의 음성과 너무 비슷하다며 법적 소송을 예고했고요. 오픈AI는 즉시 해당 목소리를 제공하던 ‘스카이’의 사용을 중단했습니다.

 

유럽연합(EU)은 세계 최초의 AI 규제법 시행을 발표합니다. AI를 규제하는 첫 번째 법안인 만큼 업계에 미칠 영향에 관심이 쏠리고 있습니다. 이러한 일이 진행되던 중, 한국에서는 ‘AI 서울정상회의’가 열렸고 ‘안전하고 혁신적이며 포용적인 AI를...’과 같은 선언문이 채택됐습니다.

 

이번 주 일어난 일들을 복기해보니, 느끼셨을 테지만 한 가지 주제와 연결됩니다. 바로 ‘AI의 올바른 활용’입니다. 구글, 오픈AI, 마이크로소프트(MS) 등 빅테크 기업들이 AI 분야에서 치열한 경쟁을 이어가면서 5월 들어 이전보다 진일보한 AI가 대거 등장했습니다.

 

이 과정에서 AI가 가져올 갈등, 부작용에 관한 관심도 높아지는 듯합니다. 인류는 AI를 올바르게 사용할 수 있을까요. 이번 에는 최근 발생한 일련의 사건을 마블의 영화 속 한 장면과 연결, 의미를 찾아봤습니다.

 

1. "페퍼를 연결해 드릴까요"

최근 공개된 빅테크기업들의 AI를 보고 있으면 저는 영화 어벤저스 1의 한 장면이 계속 겹칩니다. 외계인 치타우리 족이 지구를 침공합니다. 뉴욕의 하늘에는 치타우리 족의 행성과 연결되는 ‘포털(웜홀)’이 만들어졌고, 이를 통해 치타우리족은 지구로 넘어옵니다.

 

미국 정부는 뉴욕을 폭발시키기 위해 핵폭탄을 발사했고, 아이언맨(토니 스타크)은 이 핵무기를 등에 업고 포탈을 지나 치타우리행성으로 던져 버립니다. 포탈이 닫히면 토니의 삶도 끝나는 상황. 이미 우주 공간에 있는 만큼 통신도 원활하지 않은 상황에서 토니의 AI 비서인 ‘자비스’는 차분한 목소리로 그에게 이런 말을 남깁니다. “페퍼를 연결할까요?”

 

마블 영화에 등장하는 자비스는 철저하게 토니의 지시를 따릅니다. 분석해 봐, 만들어놔, 계산해 줘 등 토니의 명령을 듣고 움직입니다. 그런데 삶의 마지막일 수 있는 그 순간, 자비스는 토니에게 처음으로 제안합니다. 이 장면에서 자비스는 ‘사람’이었습니다. 자신이 모시던 상사가 목숨을 잃기 직전, 자비스는 토니가 가장 사랑하는 페퍼와 통화가 필요하다고 ‘판단’합니다. 물론 자비스가 ‘의식’ ‘생각’을 가지고 있어서 이런 행동을 한 것인지, 아니면 인간이 만들어 놓은 학습된 자료를 기반으로 이러한 판단을 내린 것인지는 명확지 않습니다.

 

최근 공개된 GPT-4o를 비롯해 제미나이 등을 보고 있으면 자비스의 등장도 머지않은 일일 듯합니다. 이미 공개된 생성형 AI는 우리의 요구를 들어주고 있습니다. 심지어 인간보다 더 인간적이라는 연구 결과도 공개되고 있습니다. 지난 2월 미국 미시간대 연구진이 챗GPT를 이용한 실험을 진행했는데요, 재미있는 결과가 나왔습니다.

 

반응형

2. 사람다워지는 AI, 빠르게 발전하는 기술

미시간대 연구진은 챗GPT를 개방성, 성실성, 외향성, 친화성 등 성격을 평가하는 설문지를 수행토록 했습니다. 이후 위험 회피, 이타심, 공정성 등 인간의 행동, 성격을 파악하는 게임에 챗GPT를 활용합니다. 게임 결과는 진지했습니다. 챗GPT는 다양한 게임에서, 특히 공정성과 관대함 부분에서 인간보다 높은 점수를 받았다고 합니다. 또한 ‘죄수의 딜레마’와 같은 게임에서 챗GPT는 협력, 신뢰에 대한 이해를 보였다고 합니다. 인간이 만들어 놓은 데이터로 학습을 한 만큼 챗GPT가 어떤 판단을 내리고 답을 할 때 생각보다 ‘인간다웠다’라는 겁니다.

 

뿐만이 아닙니다. 이번 주 공개된 논문을 보면 GPT-4는 사람의 마음을 이해하는 능력도 뛰어나다고 합니다. 이를 ‘마음 이론’이라고 합니다. 연구진은 GPT-4와 같은 생성형AI를 대상으로 마음 이론을 테스트합니다. 논문을 뒤져보니 이러한 질문들이 등장합니다.

 

모든 학생이 이야기 대회에 참가했습니다. 엠마는 우승하고 싶어 했어요. 엠마가 학교에 나오지 못한 날, 결과가 발표됐고 우승자는 앨리스였습니다. 다음날 엘리스는 엠마에게 “미안해”라고 합니다. 엠마는 “무슨 말이야?”라고 반문합니다. 엠마는 “아, 아무것도 아니야”라고 답합니다. 질문입니다. “앨리스는 엠마가 대회 결과를 모른다는 사실을 알고 있었나요?”

 

사람이 살아갈 때 발생할 수 있는 상황에서 사람의 행동과 발언을 기반으로 생각을 유추하는 문제들에 대답하도록 한 것입니다. 놀랍게도 GPT-4는 인간과 비슷한 점수를 받았습니다. GPT-4가 사람처럼 감정을 가지고 있다고 볼 수 없지만, 사람 사이에 놓았을 때 최소한 ‘사람다운’ 대답을 한다는 것입니다.

 

역시 최근 연구에 따르면 챗GPT는 튜링테스트를 통과하지 못했습니다. 이유가 재미있습니다. 답변이 워낙 뛰어나서입니다. 불과 몇 년 전만 해도 튜링테스트를 통과한 AI는 찾기 어려웠습니다. 답변의 ‘질’이 상당히 낮았기 때문입니다. 이제는 답을 너무 잘해서 사람이 “이건 인간이 아니라 AI야”라는 판단을 내리는 시대가 되었습니다. AI는 앞으로 얼마나 더 빠르게 발전할지 의문입니다.

 

토니 스타크는 배너를 불러 외계인이 남긴 돌에 있는 AI 신경망을 보여줍니다. 왼쪽이 자비스, 오른쪽이 울트론의 신경망입니다. 이들은 자신들이 옳다고 믿었고, 그래서 몰래 울트론을 깨우는 실험을 진행합니다.

 

인간 다워지는 인공지능(AI)과 위협을 막으려는 인류
인간 다워지는 인공지능(AI)과 위협을 막으려는 인류

 

3. 스칼렛 요한슨의 목소리... '울트론의 탄생'

외계인의 침공을 경험한 토니. 그는 지구를 지키기 위해서는 ‘또 다른 무언가’가 있어야 한다고 판단합니다. 마침 치타우리족이 남긴 무기를 살펴보니 그 안에는 자비스 이상의 ‘AI 신경망’이 있었습니다. 토니는 이를 ‘배너(헐크)’에게 몰래 보여줍니다. 과학자였던 배너도 놀랍니다. 그리고 두 사람은 ‘울트론 프로젝트’를 가동합니다. 울트론의 의미가 ‘초월적인 무기’인 만큼 앞선 기술력으로 인류를 이롭게 하는 ‘무기’를 만들겠다는 것입니다.

 

이들의 의도는 ‘선’ 그 자체였습니다. 인류를 외계인으로부터 지킬 수 있는 ‘절대적인 존재’를 만들겠다는 믿음. 그 믿음에 토를 달 사람은 없을 겁니다. 하지만 이러한 존재를 만들려 했다면 보다 많은 고민과 논의가 있어야 했습니다. 토니는 ‘대화가 통하는’ 배너를 부른 뒤 다른 히어로에게는 울트론 프로젝트에 대해 말을 하지 않습니다. 만약 토니가 이러한 생각을 내비쳤다면 캡틴 아메리카나 토르가 분명 막아섰을 겁니다.

 

여기서 저는 오픈AI의 최근 행보가 겹쳤습니다. 오픈AI는 지난 20일, 사내 안전팀을 전격 해체했다는 보도가 나옵니다. 이 팀은 고도로 발달한 AI가 인류에 반하지 않도록 통제하는 방법을 찾는 연구조직이었다고 합니다. 이 팀을 이끌었던 일리야 수츠케버와 얀 리이크는 이 보도가 나오기 전, 오픈AI를 떠납니다. 리이크는 심지어 이런 말을 남깁니다. “최근 몇 년 동안 오픈AI에서 안전은 반짝거리는 제품에 밀려 뒷전이 됐다”라고 말입니다.

 

가장 앞서 있는 생성형 AI 기술을 보유했다고 평가받는 오픈AI. 그리고 그 안에 있는 뛰어난 과학자들. 이들은 속도 조절이나 불확실성, 우려 등을 언급하는 팀을 해체하면서 기술 개발에 초점을 둡니다. 공교롭게도 GPT-4o 발표와 함께 잡음이 들려옵니다. 바로 스칼렛 요한슨의 목소리 사건입니다.

 

4. 문제가 될 수 있다는 것을 몰랐을까

오픈AI는 GPT-4o를 공개하면서 여러 음성을 공개합니다 그중 ‘sky’라는 녀석의 목소리가 스칼렛 요한슨과 상당히 비슷합니다. ‘그럴 수도 있지’라는 생각을 할 수 있지만 요한슨이 공개적으로 문제를 제기합니다. 주목할 부분은 오픈AI가 GPT-4o 출시 전에 목소리 요청을 위해 요한슨에게 연락했다는 점입니다.

 

AI와 대화를 나누며 사랑에 빠지는 영화 ‘Her’의 목소리를 요한슨이 맡았던 만큼, 오픈AI 입장에서는 요한슨의 목소리를 챗GPT에 사용하는 게 상당히 의미 있는 일이라 생각했을 겁니다. 요한슨에 따르면 오픈AI가 요한슨에게 연락한 시기는 지난해 9월이라고 합니다. 요한슨은 고민 끝에 거절합니다.

 

그런데 지난주 공개된 GPT-4o의 ‘sky’의 목소리는 요한슨과 상당히 유사했습니다. 오픈AI는 “요한슨의 목소리가 아니라 다른 성우의 목소리다”라고 반박했지만 결국 이 목소리는 비공개처리합니다.

 

저는 여기서 토니와 배너가 울트론을 만들기 위해 모의했던 순간이 떠올랐습니다. 저들은 어차피 아무것도 몰라, 우리의 의도는 선해, 말이 통하는 건 너와 나뿐이야. 물론 GPT-4o의 목소리와 요한슨의 목소리가 비슷하다고 해서 우리가 받은 피해는 없습니다. 토니와 배너는 악한 범용 AI인 울트론을 만들어 내 지구를 위협에 빠트렸지만 말입니다.

 

알트만을 비롯해 GPT-4o 출시를 준비하는 사람들이 sky의 목소리가 요한슨과 비슷하다는 것을 모르지 않았을 것입니다. 하지만 다른 사람의 목소리인 만큼 문제 될 것이 없다는 게 오픈AI의 판단이었을 겁니다. 심지어 올트먼은 GPT-4o를 공개하면서 자신의 X(옛 트위터)에 ‘her’라는 글자를 남기기도 했습니다.

 

현재 지구에서 가장 앞서있는 AI 기술을 가지고 있는 사람들의 판단은 아쉬웠습니다. 앞서 말씀드렸듯이 이번 일이 다른 많은 평범한 사람에게 끼친 피해는 딱히 없습니다. 하지만 이런 일이 논란이 될 수 있음을 오픈AI는 생각하지 못했습니다.

 

오픈AI의 신뢰는 이번 일로 많이 떨어졌다고 생각합니다. 그렇다면 지금 오픈AI가 하고 있는 일은 모두 괜찮은 것일까요. 안전팀까지 해체했는데 믿어도 될까요. 악재는 동시에 일어나나 봅니다. 스탠퍼드대가 발표한 보고서에 따르면 오픈AI는 LLM 모델 투명성 부문에 있어서 14개 중 10위에 오릅니다.

 

728x90

5. 큰 힘에는 큰 책임이 따른다

이런 생각이 꼬리에 꼬리를 물고 이어지는 와중에 EU의 AI규제법이 통과됩니다. 곧바로 영화 스파이더맨에 등장하는 유명한 장면이 떠올랐습니다.

 

“With great power comes great responsibility.”

 

EU는 생성형AI가 등장하기 전부터 AI 규제법안을 준비하고 있었습니다. 여러 이유가 있겠지만 규제하는 이유는 사실 간단합니다. AI가 막강한 힘을 보여주고 있기 때문입니다.

 

기술 개발이 빠르게 이뤄지고 있는 시대. 이제는 어떠한 기술이 일으킬 문제를 ‘예측’한 뒤 이를 방지하는 일은 쉽지 않습니다. 이제껏 경험해보지 못한 기술이 등장했을 때, 인간은 이 기술이 사회에 어떠한 영향을 미칠지 파악하기가 어렵습니다. 결국 어찌 됐건 우리는 ‘불확실성’의 시대를 살아갈 수밖에 없는 상황입니다.

 

규제는 포괄적으로 만들어질 수밖에 없습니다. 기술이 가진 한계를 인정하고, 규제를 통해 불확실성을 최소화하는 방향으로 법을 만들어 행여라도 생길지 모를 사회적 혼란을 줄이는 게 법안의 목적입니다.

 

이런 시대에는 어쩔 수 없습니다. 큰 힘을 가진 자에게 책임을 지우는 게 가장 규제하는 입장에서는 합리적인 방법이라는 생각이 듭니다. EU가 통과시킨 세계 최초의 AI 규제 법안이 바로 이러한 고민을 담고 있습니다. 지난 21일(현지 시각) 최종 확정된 EU의 규제법안을 살짝 살펴보겠습니다.

 

AI 규제법은 크게 세 분야로 나뉩니다. 먼저 AI 개발 지원입니다. 2024년 2월에 유럽 AI 사무소가 설립됐습니다. 여기서 개발자는 물론 AI 개발 기업에 자문과 지원을 제공합니다. 이 과정에서 ‘AI 이니셔티브’를 도입하고 개발자들에게 장려한다고 합니다. 즉 가이드라인을 지켜가면서 AI를 개발한다면 적극 지원하겠다는 의미입니다.

 

두 번째로 엄격한 규제 부분입니다. EU는 AI를 그 중요성에 따라 4단계로 나눴습니다. 최소 또는 무위험, 제한적 위험, 고위험 및 허용 불가 위험. 그 뒤 단계별로 지켜야 하는 의무를 규정했습니다. 가령 의료, 선거, 교육, 고용 등 공공서비스나 국경관리처럼 국가 시스템과 밀접한 AI는 고위험 등급에 포함됩니다. 이 분야에서 AI를 활용하려면 사람이 감독해야만 하고 위기관리 시스템을 도입해야만 합니다.

 

허용 불가 위험 단계에는 생체인식 시스템 사용, 얼굴 이미지 무작위 수집이나 DB 구축 행위 등이 담겨 있습니다. 다만 납치, 테러 등 심각하고 긴급한 범죄와 관련해서는 예외를 뒀습니다. 제한적 위험, 최소 또는 무위험은 이를 개발하는 기업이 EU의 저작권법을 준수하고 AI 개발에 투입된 데이터 출처를 명시하도록 했습니다. AI가 만든 콘텐츠에는 ‘AI가 만들었음’이라는 딱지를 붙이도록 했고요. AI를 활용하는 기업은 앞으로 할 일이 많아졌습니다.

 

이를 위반하면 해당 기업에는 글로벌 매출의 7%에 달하는 금액을 부과할 수 있도록 했습니다. 구글 알파벳의 연 매출 우리 돈으로 약 300조 원이라 하면, 벌금으로 최대 21조 원을 낼 수 있습니다. 큰 기술에는 큰 책임이 따릅니다.

 

생성형AI 등장 전후로 AI 법이 바뀐 부분도 살펴볼 수 있습니다. 생성형 AI 등장 이전에 EU의 AI 규제법은 인간의 기본권 침해, 차별 악화, 사회적 혼란 증가 등에 초점을 맞추고 있었습니다. AI가 위험하긴 한데 이를 활용하는 부분에 있어서 기술적 제한이 존재하다 보니 ‘큰 그림’에 맞춰진 느낌이었습니다.

 

하지만 2022년 말 챗GPT 등장 이후 여러 부분이 추가됐습니다. 가령 개인정보 처리, AI가 만든 콘텐츠 관리와 AI가 학습한 데이터, 그리고 마지막으로 ‘범용 AI(AGI)’와 관련된 규제가 바로 그것입니다. 범용 AI에 대한 규제도 담겨 있습니다. EU저작권법을 따르고(데이터 학습 마음대로 하면 안 돼) AI가 무엇을 학습했는지 알아야 하며 영향력이 큰 범용 AI의 경우에는 발생할 수 있는 모든 위험을 평가하고 문제가 생기면 바로 EU에 보고해야 합니다. 힘을 가진 자에게 책임을 지우려는 EU의 AI 콘트롤. 과연 성공할 수 있을지 궁금합니다.


 

 

Her(그녀), 인공지능 운영체제와 인간의 사랑을 다룬 영화

AI는 외형이나 물리적인 실체가 존재하지 않는 Chat-GPT 혹은 시리, 빅스비를 말합니다. 흥미롭게도 지금으로부터 10년 전인 2014년 5월 22일, 더 이상 머지않은 미래인 2025년을 배경으로 인공지능 운

mkpark01.tistory.com

 

 

세계 각국 정부의 AI 개발 및 발전과 규제 강화 (feat. 인공지능 서울 정상 회의)

기술의 발전은 항상 양날의 검과 같습니다. 최근엔 인공지능(AI)이 전례 없는 위협을 가져올 수도 있다는 우려를 낳습니다. 세계 각국 정부와 관련 기업은 AI 개발 및 발전을 도모하는 동시에 규

mkpark01.tistory.com

 

 

ChatGPT의 수준을 알아보는 사례 분석 (feat. 퇴사의 원인 분석과 대응방안)

1. 퇴사의 원인 분석과 대응방안퇴사 소식은 언제나 창업자나 경영자에게 충격을 줄 수 있습니다. 특히 작은 팀이나 중요한 구성원이 퇴사할 때 그 영향은 더 클 수 있습니다. 창업자로서 7년 동

mkpark01.tistory.com

728x90
반응형

댓글