“금융 AI, 아직은 디지털 시대의 소시오패스”

WSJ, “공감 능력 없고, 옳고 그름 몰라... 윤리·판례 입력엔 4년 더 걸려”

현재 인공지능(AI) 챗봇은 “디지털 시대의 소시오패스”라는 진단이 제기됐다. 설득력은 강하지만, 공감·윤리가 부족해 금융 자문으로는 부적합하다는 것이다. 

AI 챗봇이 ‘그럴듯한 말’은 잘하지만 책임 있는 판단은 못해, 투자 의사결정에 직접 활용 시 리스크가 크다고 미국 경제지 월스트리트저널(WSJ)이 최근 보도했다. 이 신문은, AI가 금융 투자 영역까지 빠르게 침투하고 있지만 정작 전문가들은 “지금 단계에서는 위험하다”고 입을 모은다고 게재했다.

WSJ에 따르면, 미국 메사추세츠공대(MIT)의 금융학자 앤드류 로 교수는 “챗지피티(ChatGPT) 같은 AI 챗봇은 금융 자문가로 신뢰하기 어렵다”며 “디지털 시대의 소시오패스와 같다”고 직격했다. 말은 그럴듯하지만 고객의 이익이나 감정을 고려하지 못한다는 의미다.

오늘날의 ChatGPT 등 거대언어모델(LLM)은 사용자의 최선의 이익을 위해 행동하도록 훈련받지 못했지만, 로 교수는 이들에게 그 방법을 가르치기를 희망하고 있다고 WSJ는 전했다. 그는 고객의 이익과 감정적 필요를 최우선으로 하는 수탁자(Fiduciary) 역할을 하도록 설계된 AI 금융 고문을 개발 중이다.

금융 조언에 AI를 사용해야 할까? 로 교수는 “아직은 아니다”라고 말한다. 금융 고문으로 활용하기에는 부적합하다는 것이다. 코파일럿(Copilot)이나 ChatGPT 같은 LLM은 말만 번지르르하고, 설득력은 있지만 공감 능력이 결여된 ‘디지털 소시오패스’나 다름없기 때문이라고 그는 주장했다.
 
로 교수와 그의 대학원생인 질리언 로스(Jillian Ross)는 2024년 ‘하버드 데이터 과학 리뷰’에 기고한 글에서 “만약 AI 기반의 고문이 좋은 조언과 나쁜 조언을 모두 똑같이 유쾌하고 설득력 있는 어조로 전달할 수 있다면, 고객들은 당연히 이를 문제로 보게 될 것”이라고 지적했다. 베터먼트나 웰스프런트 같은 오늘날의 로보어드바이저들은 LLM 시대 이전에 운영을 시작했으며 대부분 이를 기반으로 구축되지 않았기 때문에, 로 교수의 비판은 이들에게는 해당하지 않는다.

그럼에도 불구하고, 사람들은 이미 금융 업무에 AI 도구를 활용하고 있다. 트레이딩 및 투자 플랫폼인 이토로(eToro)가 13개국 1만1000명의 개인 투자자를 대상으로 실시한 설문조사에 따르면, 포트폴리오 관리에 ChatGPT 스타일의 AI 도구를 이미 사용하고 있다고 답한 비율이 2024년 13%에서 2025년 8월 19%로 증가했다.

이는 로 교수를 걱정스럽게 만든다고 WSJ는 전했다. 그는 이메일을 통해 "현재 사람들이 사용하는 AI는 위험할 수 있다. 특히 사용자가 LLM의 편향성, 부정확성 및 기타 한계를 완전히 인지하지 못하고 있을 때는 더욱 그렇다"고 밝혔다.

윤리에 대한 이해
현재의 AI 모델에 대한 우려에도 불구하고, 로 교수는 LLM이 궁극적으로 투자자들, 특히 소액 계좌를 가지고 있거나 투자 경험이 부족한 사람들을 도울 수 있을 것이라 믿는다. 실제로 그는 금융 고문에 특화된 AI를 구축하기 위해 노력하고 있다. 그는 이 서비스를 유료로 제공할 계획이 없다고 말한다.

로 교수의 목표는 진정한 ‘수탁자’ 역할을 하는 AI 금융 고문을 개발하는 것. 이는, 항상 고객의 이익을 최우선으로 두고 감정적인 필요를 포함한 고객의 특정 요구에 맞춰 조언을 제공하는 존재다. 그는 이를 완성하는 데 4년이 채 걸리지 않을 것으로 보고 있다.

이를 달성하기 위해서는 금융 윤리에 대한 풍부한 이해가 필요하다고 그는 말한다. 이를 위해 그는 1933년 증권법부터 최근의 사기 재판에 이르기까지, 미국의 금융 윤리 문제를 다룬 모든 법률, 규제 및 판례를 AI 모델에 학습시킬 것을 제안한다.

그와 로스는 “이 풍부한 역사는 악의적인 행위자들이 순진한 개인과 기관 고객을 어떻게 착취해 왔는지를 보여주는 일종의 ‘화석 기록’으로 볼 수 있다”고 썼다. LLM이 훈련을 통해 ‘해서는 안 될 일’이 무엇인지 배우기를 기대하는 것이다.

로 교수는 LLM에 윤리가 내장되어 있지 않기 때문에, 오히려 옳고 그름에 대한 새로운 지식을 활용해 ‘그름(악행)’을 선택할 수도 있다는 점을 인정한다. 이러한 오용을 막기 위해 당국은 ‘불로 불을 끄듯’ 맞대응해야 한다고 그는 말한다. 예를 들어 사용자의 세금 신고서를 감사해 범죄를 감지하는 AI 모델을 개발해야 한다는 것.

또한, LLM은 수학에 약한데 이는 금융 계획을 세울 때 큰 문제라고 그는 보고 있다. 로 교수는 AI 모델이 계산이 필요한 부분은, 전문 금융 계획 소프트웨어에 넘겨 처리해야 할 것이라고 말했다.

인간적인 손길
하지만 지식은 해결책의 일부일 뿐이라고 WSJ는 밝혔다. AI 금융 고문에게는 공감, 겸손, 그리고 공정함에 상응하는 디지털 기능도 필요하다고 로 교수는 말한다.

이러한 인간적인 특성은 단순히 AI를 더 강력하게 만든다고 해서 나타나는 게 아니라는 것. 대신 AI 모델에는 기계가 실제로 공감할 수는 없으므로, 공감과 유사한 결과를 만들어내는 특수 모듈이 필요하다고 WSJ는 강조했다. 이러한 모듈은 인간 뇌의 특화된 부분에 해당할 것이라고 로 교수는 설명한다.

로 교수는 월스트리트로 진출한 수많은 MIT 제자들을 가르쳐왔다. 그는 또한 손실 혐오와 과도한 자신감 같은 행동을 설명하기 위해, 진화의 원리를 사용하는 ‘적응적 시장 가설(adaptive markets hypothesis)’을 개발하기도 했다.

WSJ에 따르면, 진화는 무작위 변이와 자연선택을 통해 일어난다. 강한 자는 살아남아 번식하고, 약한 자는 소멸한다. 로 교수는 컴퓨터로 가속화된 일종의 자연선택을 활용해, 더 나은 AI 모델의 개발을 촉진하고자 한다고 WSJ는 밝혔다.

권선무 기자

[ⓒ데이터저널리즘의 중심 데이터뉴스 - 무단전재 & 재배포 금지]

맨 위로