[사진: 셔터스톡]
[사진: 셔터스톡]

[강경수 IT칼럼니스트]개인적으로 20세기 세계사에서 가장 안타까운 장면을 꼽자면, 그것은 ‘스페인 내전’이다. 20세기 초(1931~1936년, 제2공화국), 스페인에서는 ‘모두를 위한 정의’가 현실 세계에서 벌어질 것 같았던 시기가 있었다. 모든 인간이 자유롭고 평등한 삶을 누리는 꿈 같은 세상 말이다. 하지만 인류사가 항상 그래왔듯이 기득권의 탐욕적인 권력과 욕망에 처절하게 짓밟히고 만다.  

2차 세계대전의 시발점이 됐던 스페인 내전은 1936년부터 1939년까지 벌어진 이념적 대립의 전쟁이었다. 이 3년간의 내전은 독일, 이탈리아 파시스트의 지원을 받은 프란시스코 프랑코 반란군의 승리로 막을 내린다. 자유와 평등을 꿈꿨던 수많은 민중은 죽거나 역사의 뒤안길로 사라지고 만다. 노벨문학상을 받은 프랑스 소설가 알베르 카뮈는 스페인 내전에 대해 다음과 같이 말했다.

“정의도 패배할 수 있고, 무력이 정신을 굴복시킬 수 있으며, 용기를 내도 용기에 대한 보상이 전혀 없을 수도 있다는 사실을 배웠다. 바로 스페인에서.”

스페인 내전이 더 안타까웠던 것은 정의를 실현하고자 했던 공화국 진영의 분열이 패배의 큰 몫을 차지했기 때문이다. 악마는 디테일에 있다고 했던가. 파시스트에 맞서 투쟁했던 사회주의자, 자유주의자, 공산주의자, 아나키스트 등 다양한 진영의 사람들 모두 진실하고 정의로운 세상을 원했지만, 각각의 세세한 이념 차이를 결국 극복하지 못했다. 더불어 2차 세계대전 이후 공산주의는 새로운 형태의 파시즘인 전체주의로 악마화되어 긴 시간 인간의 존엄과 자유를 억압한다.

2023년 11월 17일, 오픈AI 이사회는 창업자이자 CEO 샘 올트먼을 전격적으로 해고한다. 18~19일, 올트먼은 이사회와 자신의 복귀를 논의한다. 마이크로소프트를 비롯한 주요 투자자들은 이사회에 압력을 가한다. 복귀 협상은 결렬된다. 마이크로소프트 CEO 사티아 나델라는 올트먼의 영입을 발표한다. 20일, 오픈AI 직원 750명(전 직원의 95%)은 ‘올트먼이 복직하지 않을 경우 퇴사할 것’이라는 성명서를 발표한다. 21일, 올트먼은 다시 합류하고 그를 축출하고자 했던 이사회 멤버들은 퇴출당한다. 흥미진진한 넷플릭스 시리즈를 보는 것과 같았던 5일간의 드라마이다.    

샘 알트먼 오픈AI CEO [사진: 셔터스톡]
샘 알트먼 오픈AI CEO [사진: 셔터스톡]

오픈AI 이사회는 샘 올트먼을 왜 해고하려고 했을까? 무리수처럼 보이고, 논란이 커질 수 밖에 없는데도 말이다. 이번 일을 주도했던 오픈AI 공동창립자이자 수석과학자 일리야 수츠케버는 울트먼의 해임 사유를 직원들에게 설명하면서 사명을 언급했다.

“인류 모두에게 이익이 되는 안전한 범용인공지능을 만든다(Creating safe AGI that benefits all of humanity).”

최근 AI의 발전 속도를 보면 경이로움과 동시에 무섭다는 느낌을 지울 수가 없다. AI가 과연 ‘인류 모두에게 이익인가’, 그리고 ‘안전한가’라는 질문에 주저 없이 ‘그렇다’고 대답할 수 있을까? 여러 국내외 뉴스를 종합하면, 이번 사건의 핵심은 AI 개발 속도를 극대화하는 ‘부머(Boomer, 개발론자)’와 AI의 위험성을 경고하는 ‘두머(Doomer, 파멸론자)’의 대충돌로 정리할 수 있다. 

오늘날 AI 기술은 점점 범용적인 특성을 갖추는 방향으로 진화하고 있다. 이를 바탕으로 빅테크 기업은 자사의 클라우드 컴퓨팅을 활용해 AI를 플랫폼화하고 있다. 다양한 분야에서 AI 서비스와 상품이 나올 수 있게 하는 거대한 생태계를 구축하고자 하는 것이다. 지난 수십 년간 PC와 인터넷을 거쳐 모바일로 이어졌던 흐름이 이제 AI 퍼스트 세계로의 전환이라는 새로운 시대를 맞이하고 있다. 그것도 이전의 그 어떤 패러다임 전환 때보다 빠른 속도로.

2016년 3월, 알파고와 이세돌 9단의 세기의 바둑 대결이 있었고, 결과는 4승 1패. 사람들은 이전까지 생소하게 여겼던 AI의 위력에 충격을 받았다. 한편으로는 이세돌 9단의 1승에 위안을 얻기도 했다. 낯선 존재의 등장에 따른 놀라움은 있었지만, 그때만 해도 AI는 특정한 분야에서 하나의 작업에 초점이 맞춰졌다. 컴퓨터가 인간의 지능을 모방하도록 하는 기술 정도로 여겼다. 예를 들어 이미지 인식, 자연어 처리, 단순한 어시스턴트 등의 작업을 수행했다. AI는 주로 빅데이터를 활용하여 학습하고, 이를 분석해 최선의 답을 제시하는 수준이었다.

2022년 11월, 대규모언어모델(LLM)을 기반으로 한 생성형 AI 시스템 챗GPT(ChatGPT, GPT-3.5)가 나오면서 양상이 달라진다. 챗GPT를 필두로 한 최근 일련의 생성형 AI는 다양한 작업에서 인간과 같거나 더 높은 수준의 지능을 가진 AGI(Artificial General Intelligence, 범용인공지능 또는 인공일반지능)로 발전하고 있다. 

올해 11월, 오픈AI가 첫 개발자 행사에서 공개한 GPT-4 터보는 엄청나게 늘어난 언어 처리 능력(3천 단어에서 일반 책 300쪽 분량으로)과 확장된 멀티모달(텍스트, 이미지, 음성, 비디오 등 다양한 형태의 데이터를 처리하는 능력) 기능을 제공한다. 특히 멀티모달은 AGI를 달성하기 위한 중요한 요소 중 하나이다. 인간은 다양한 감각과 기억을 통합하여 사물을 인식하고 사고한다. 인간과 같은 사고를 할 수 있는 AGI를 만들려면 멀티모달의 능력이 필수이다. 

‘다양한 작업’이라는 것이 어디 까지고, 어느 수준까지 인지는 의견이 다를 수 있다. 분명한 것은 범용성과 높은 수행 능력을 다 갖추고 있다는 것에는 이견이 없는 것 같다. AGI는 다양한 문맥이나 환경에서 사용할 수 있으며, 새로운 문제를 쉽게 해결할 수 있다. 여러 가지 복합적인 상황을 응용할 수 있는 능력도 갖춰가고 있다. 이처럼 AGI는 인간이 할 수 있는 모든 지적 작업을 수행하도록 설계됐다. 이전까지의 AI는 음성을 인식하거나 바둑을 두거나 자동차를 운전하는 데 사용했다. AGI는 소설을 쓰거나 음악을 작곡하거나 그림을 그리거나 고차원적인 문제를 푸는 등 인간이 할 수 있는 모든 지적 작업을 수행한다.

[사진: 셔터스톡]
[사진: 셔터스톡]

많은 분야에서 활용될 AGI는 유연하면서도 광범위하게 인간의 지능을 초월할 수도 있다. 물론 현존하는 AGI는 아직 초기 단계이지만, 지금의 AI 개발 속도를 봤을 때 우리가 상상한 것 이상의 AGI의 출현이 멀지 않아 보인다. 

AGI로 빠르게 진화하고 있는 AI는 인류의 삶에 엄청난 변화와 영향을 미칠 것이다. 과연 AGI가 일상화된 사회는 이전보다 정의로운 세상이 될 수 있을까? AI는 사용자 질문에 모르면 모른다고 하지 않는다. 문맥상 가장 유사한 정보를 찾아서 답한다. 틀린 답도 마치 정답인 것처럼 말하는 환각 현상을 보일 수 있다. 

비윤리적 내용도 문제다. 인종, 성별, 연령, 장애 등의 특성을 바탕으로 특정 사람이나 집단을 차별하거나 다른 사람에게 특권을 부여함으로써 불공정과 불평등을 악화시킬 수 있다. 개인 정보 등과 같은 민감한 데이터를 허가 없이 활용하거나 동의 없이 부도덕한 목적으로 데이터를 사용함으로써 인간의 자유와 존엄을 침해할 수 있다.

실례로 지난 2018년 아마존이 개발 중이었던 AI 채용 시스템은 여성 지원자를 차별하는 것으로 드러나 도입을 취소했다. 이 시스템은 입사 지원자의 이력서를 검토해 역할에 대한 적합성을 따질 수 있도록 설계됐지만, 남성 우위인 업계의 현실(예를 들어 남성 비율이 월등히 높은 개발 직군)을 그대로 학습해 여성을 차별하는 것으로 드러났다. 이력서에 '여성'이라는 단어가 포함되거나 여자 대학을 졸업한 경우 감점을 한 것이다. 

미국 여러 주 법원에서는 AI 재판 지원시스템 컴퍼스(COMPAS)를 사용한다. 피고인의 데이터를 분석해 재범 가능성을 살핀다. 하지만 흑인 피고인이 백인보다 범죄 경력과 특성이 비슷하더라도 재범을 저지를 가능성이 더 높다고 예측했다. 인종에 있어 편향된 것으로 드러났다. 이로 인해 흑인에 대한 처벌이 더 가혹해 질 수 있으며, 사법 체제의 인종 차별이 심화할 수 있다.

이처럼 AI는 상황에 따라 인종, 성별, 연령, 장애 등의 특성을 바탕으로 특정 집단이나 개인을 차별하거나 다른 사람에게 특권을 부여할 수 있다. AI 시스템이 모두를 위한 공정성과 평등을 존중하는 방식으로 설계돼야지만, 과연 그렇게 공정하게 작동하고 설명할 수 있는지에 대해서는 아직 알 수 없다.

UC버클리 대학의 스튜어트 러셀 교수는 ‘양립할 수 있는 인간: AI와 통제의 문제(Human Compatible: AI and the Problem of Control)’에서 AI가 의도치 않게 인류를 파괴할 수 있다고 지적한다. 인간이 정말 걱정해야 하는 것은 SF영화에서 나올법한 주인에게 반하는 AI가 아니라는 것이다. (누군가 의도했거나 혹은 실수했거나) 무심코 던져진 잘못된 목표를 주었을 때 인류를 말살시킬 수 있다. AI가 인간이 모든 사항을 다 고려하지 못한 상태에서 설계됐을 때 벌어질 수 있는 위험성을 강조한 것이다. 러셀 교수는 AI에 대한 올바른 통제력을 되찾아야 하는 이유에 대해 다음과 같이 말했다.

"옳지 않은 목표를 추구하는 AI는 사실상 인류의 적입니다. 그리고 그 적은 우리보다 훨씬 더 강력합니다."

AI가 더 강력해지고, 보편화되면서 모든 영역에서 인간의 성취보다 더 우수한 초지능을 갖게 될 날이 곧 올 수도 있다. 문제는 이를 통제하는 인간의 역할이다. AI가 결정하는 것에 대한 명확하고 접근 가능한 정보와 정당성을 제공해야 한다. 이를 투명하고 책임감 있게 관리할 수 있는 ‘설명할 수 있는 방식’으로 사용돼야 한다. 

특정 세력의 불순한 의도로 AI가 은밀한 조작, 강요, 기만 등을 통해 인간의 존엄성과 자율성을 훼손하거나 위협할 수 있다. 따라서 AI는 보편적인 권리에 근거해 인간에게 권한을 부여하고 지원하며 협력해야 한다. 인간에게 선택권과 기회의 자유를 제공함으로써 인간의 존엄성과 자율성을 최대한 존중하고 강화하는 방식으로 사용돼야 한다. 정의의 관점에서 AI는 책임감 있고 윤리적인 방식으로 사용될 수 있게 세심하고 지속해서 관리될 필요가 있다.

“늑대에게 자유는 사슴에게 죽음이다.”라는 말이 있다. 인간 사회에서 자유와 정의의 갈등을 늑대와 사슴의 관계로 비유한 것이다. 늑대는 자신의 자유를 위해 사슴을 사냥하고, 사슴은 자신의 생존을 위해 늑대로부터 도망친다. 어떤 인간이 자신의 자유를 위해 다른 인간의 권리를 침해하거나, 반대로 다수의 권리를 위해 특정 인간(혹은 집단)의 자유를 제한할 수도 있다. 모두를 위한 정의를 실현하기 위해서는 서로 양립하기 어려운 가치의 충돌이 일어나는 것이다. 이 모순된 지점에서 균형을 잡는 것이 중요하다. 

늦은 밤, 1988년 발매된 메탈리카의 네 번째 앨범, ‘그리고 모두를 위한 정의(And Justice For All)’을 듣는다. 미래의 AI가 소수 특권층이나 승자 만을 위한 정의가 아닌 모두를 위한 정의의 방향으로 나아가기를 바라며.
 

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지