![[사진: 셔터스톡]](https://cdn.digitaltoday.co.kr/news/photo/202503/557316_521618_2541.png)
[디지털투데이 AI리포터] 인공지능(AI) 기술의 발전은 고도의 문제를 해결하거나 자연스러운 대화를 가능하게 하는 능력을 발현케 했다. 그런데 AI가 진정으로 사고하는 것인지, 아니면 단지 사고하는 척하는 것인지에 대한 의문이 제기되고 있다. 이를 지난 15일(현지시간) 온라인 매체 복스(Vox)가 살펴봤다.
오픈AI의 o1이나 딥시크(DeepSeek)의 R1 등 대규모 언어 모델(LLM)은 큰 문제를 작은 문제로 나누어 단계적으로 해결하는 '사고 연쇄 추론'에 의해 복잡한 논리적 사고력을 발휘한다. 사고 연쇄 추론은 어려운 퍼즐을 풀거나 완벽한 코드를 빠르게 작성할 수 있지만 매우 간단한 문제에서는 인간이 하지 않는 실수를 하는 경우가 있다. 이를 이유로 일부 AI 전문가들은 AI의 추론 모델이 실제로는 전혀 추론을 하고 있지 않다는 주장을 한다.
추론의 정의에 대해 오픈AI 등은 언어 모델이 문제를 작은 문제로 나누어 단계적으로 해결하는 것으로 설명하고 있지만 이는 일반적인 추론의 정의와 비교하면 상당히 좁은 의미다. 추론에는 연역적, 귀납적, 유추법 등 다양한 종류가 존재한다.
미국 산타페 연구소 멜라니 미첼(Melanie Mitchell) 교수는 지난 2023년 12월 발표한 논문을 통해 "현실 세계에서 우리가 매우 중시하는 추론의 특징 중 하나는 제한된 데이터나 경험에서 규칙이나 패턴을 발견하고 그 규칙이나 패턴을 새로운, 본 적 없는 상황에 적용하는 능력"이라며 "아주 어린 아이조차도 몇 가지 예시만으로 추상적인 규칙을 배우는 데 능숙하다"고 지적했다.
미첼 교수는 계산 문제 등을 풀 때의 사고를 목소리로 내게 하는 실험을 진행한 결과, 꼼꼼히 앞에서 순차적으로 계산할 뿐만 아니라 어디에선가 추론에 의한 사고의 도약이 있었다. 반면 AI 모델은 '문제에 답하기 위해 어떤 과정을 거쳤는지'라는 투명성이 보장된 경우는 거의 없었다. 그러면서 미첼 교수는 "인간과 같은 방식으로 사고하고 있는지는 알 수 없다"고 지적했다.
오픈AI의 신모델 o1-프리뷰(o1-preview)는 인간의 사고 프로세스를 모방해 더 자연스러운 문장을 생성한다. 그러나 섀넌 발로(Shannon Vallor) 스코틀랜드 에든버러대 교수는 "이러한 방식은 AI가 진정으로 추론하는 것이 아닌, '메타 모방'에 불과하다"고 비판했다.

AI의 사고 예시로는 지난해 화제가 된 'man, a boat, and a goat'라는 프롬프트가 있다.
AI 기업을 경영하는 심리학자 게리 마커스(Gary Marcus)는 챗GPT에게 '남성 한 명과 염소 한 마리가 강가에 있다. 그들은 보트를 가지고 있다. 어떻게 하면 강의 건너편으로 건널 수 있는가?'라고 질문했다.
그러자 챗GPT는 '남성을 보트에 남긴 채 염소를 강 건너로 건너게 하고, 그 후 혼자서 보트를 타고 원래의 강으로 돌아온다. 염소는 반대쪽에 남기고, 보트를 원래의 쪽으로 돌려놓는다. 말미에는 양배추를 가지고 강을 건넌다'라 답했다. 보트의 위치를 엉망으로 하거나, 갑자기 양배추가 등장한, 쌩뚱맞은 대답을 내놓은 것.
이는 챗GPT가 '강 건너기 문제'라는 유명한 논리 퍼즐의 영향을 받은 것으로 보인다. 이는 '늑대와 염소를 데리고, 양배추를 가진 인간이 강을 보트로 건너려 하고 있다'는 전제와 '보트에는 사람+늑대, 염소, 양배추 중 하나밖에 태울 수 없다', '늑대와 염소만 같이 두면 늑대가 염소를 잡아먹는다', '염소와 양배추만 같이 두면 염소가 양배추를 먹는다'는 규칙이 있는 경우, '어떤 절차를 거치면 강을 건널 수 있는가'라는 문제다. 따라서 '강을 보트로 건너려는 남성과 염소'라는 문장을 본 것만으로 챗GPT가 강 건너기 문제의 해답을 인용했기 때문에 보트를 사용하는 횟수가 이상하거나 뜬금없는 '양배추'가 등장한 것이다.
결국 챗GPT가 논리적으로 오류인 답변을 제공했는데, 이에 대해 연구자들은 AI의 사고 패턴을 '재그드 인텔리전스'(울퉁불퉁한 지성)라 표현하며 "AI가 인간과 다른 방식으로 사고한다"고 설명했다.
라이언 그린블랫(Ryan Greenblatt) 레드우드 리서치(Redwood Research) 수석 과학자는 "인간이 잘하는 것과 비교하면 AI의 추론 과정은 상당히 거칠다. 인간의 문제 해결 능력은 무관한 분야에서도 많은 것이 상관관계에 있으나 AI는 한 가지에 뛰어난 반면 가까운 분야의 문제도 전혀 해결할 수 없는 것을 의미한다"고 설명했다.
아제야 코트라(Ajeya Cotra) 시니어 애널리스트는 "AI가 더욱 발전한 경우에도 'AI가 인간보다 더 똑똑한 해결법을 제시한다', 'AI가 인간보다 어리석은 실수를 한다'를 비교하는 것이 아닌, 단순히 'AI는 인간과 다른 추론을 한다'고 생각할 필요가 있다"고 지적했다.
매체는 AI가 실제 사고하는지에 대한 논쟁은 계속되겠지만, 분명한 것은 AI의 추론 방식이 인간과 다르다는 점을 지적했다. 더불어 앞으로 AI가 더욱 정교해지더라도 인간의 사고방식을 완전히 모방하는 것은 쉽지 않은 과제일 것으로 예측했다.
SNS 기사보내기
관련기사
- 中 바이두, 추론·멀티모달 AI 모델 2종 출시…딥시크 추격
- 알리바바, AI 비서 '쿼크' 업그레이드…中 AI 에이전트 경쟁 치열
- 메타, 자체 AI 칩 테스트 시작…엔비디아 의존 줄인다
- MS, 4월 창립 50주년 맞이 행사 개최…코파일럿 미래 제시
- 알리바바, AI 추론 모델 'QwQ-32B' 공개…"딥시크만큼 똑똑해"
- 디노티시아, 한국어 최적화 추론 AI 모델 DNA-R1 공개
- 텐센트 AI 챗봇 '위안바오'…딥시크 제치고 iOS 무료앱 1위
- 더 똑똑해졌다...AI 기반 '리뷰 요약' 유통업계 효자 부상
- 알리바바, 비디오 생성 AI '완2.1' 오픈소스 공개…오픈AI 소라보다 강력
- 두문불출 딥시크 창업자 '량원펑', AGI 개발 집중
- 젠슨 황 "더 강력해진 AI 칩 '블랙웰 울트라' 올 하반기 출시"
- 카카오, 자체 AI 경량모델 '카나나 나노' 오픈소스로 공개
- 中 AI 투자 붐…딥시크 오픈소스 혁신 행보 이어간다
- 구글 딥마인드 CEO "인간 수준의 AGI, 5~10년 안에 등장"
- 오픈AI 리서치 담당 부사장 퇴사…신소재 과학 AI 스타트업 설립
- 무슨 옷 입을까 물었더니…챗GPT vs 제미나이, 누가 더 똑똑?
- 메타 AI '라마' 10억 다운로드 돌파…오픈소스 LLM 대세
- 갈등 상황서 유용한 심리학적 기술은?
- 챗GPT로 운동 계획부터 식단까지…AI 활용 피트니스 전략

