04
28

 

최근들어 Chatgpt, Dalle 등등 다양한 생성형 AI 모델들이 화제가 되고 있고, 활발히 이용되고 있습니다. 이러한 현상을 볼 때면 흥미롭기도 하고 경이롭기도 하면서도, 자연어 처리를 처음 배우던 때가 생각나곤 한다.

 

단순히 형태소(Lemma) 구분 등의 기초적이 작업에서부터 시작해서 Transformer를 기반으로 하는 자연어 처리 딥러닝 모델들과 이를 응용한 다양한 사례들을 보면서 신기할 따름이었는데, 그중 교수님이 설명하셨던 사례로 실패한 언어 모델도 있었다.

 

실패는 다양한 이유로 인해 초래되었는데, 굳이 예를 들자면, 생성형 모델에서 의도치 않게 폭력성이나 의외성이 나타나거나 바람직하지 않은 응답을 노출하는 것이 대표적이었다. 우리에게 익숙한 사례로는 챗봇인 “이루다”가 있을 것 같다.

 

그 시절엔 IBM의 왓슨(Watson)은 ‘실패’가 아닌, 한참 다른 빅 테크들과 치킨게임을 벌이고 있는 큰 산 중에 하나 정도로 배웠던 것 같은데, 요즈음의 화제 속에서는 좀처럼 IBM이나 왓슨의 이름을 찾아보기 쉽지 않다. 즉 ‘성공하지 못했다’ 라는 것인데, 왜 그랬을까?

 


왜 실패 했을까?

 

IBM의 실패를 분석한 다양한 리포트가 있지만 그 중 와 닿았던 것은 아래와 같다.

 

IBM의 Watson과 같은 초기 AI 의료 프로젝트는 몇 가지 과제에 직면했다. 주요 과제 중 하나는 고품질 데이터가 부족하다는 것이었다. 교과서나 연구 논문 같은 의학 교육 자료는 입수할 수 있었지만, 학습하기 위해 방대한 양의 실제 환자 데이터가 필요한 AI 시스템을 훈련하기에는 적합하지 않았다.

 

또 다른 문제는 의료 진단과 치료의 복잡성이었다. AI 시스템은 특정 유형의 데이터에 대해 교육을 받아야 하며, 의료 진단 및 치료는 매우 복잡하고 개별화된 프로세스인데 이로 인해 AI 시스템이 학습할 있는 표준화된 데이터 세트를 만드는 것이 어려웠다.

 

또한 AI 개발자와 의료 전문가 간의 협업 부족도 또 다른 장애물이었다. 많은 AI 개발자들은 의료 분야에 대한 깊은 이해가 없었고, 많은 의료 전문가들은 또 반대로 AI 기술에 대해 잘 알지 못했다. 이러한 협업 부족으로 인해 의료 전문가를 효과적으로 지원할 수 있는 AI 시스템을 개발하는 것이 어려워졌다.

 


실패 요인?

 

아이러니하게도 IBM은 너무도 고차원 적으로 접근했기 때문에 실패했다는 것으로 이해했다. 데이터 사이언티스트와의 협업에서 가장 문제가 되는 것이 해당 도메인에 대한 이해라는 말이 있다.

 

그만큼 실제 현장에 이론을 적용하는 것에는 많은 괴리와 이해관계가 따른다는 말인데, 심지어 그 어렵고 어려운 의학분야부터 건드렸으니 쉽지 않았을 것은 당연지사.

 

혹시 모르겠다. 지금 비교적 성공한 모델로 평가받는 ChatGPT 등의 모델이 해당 분야에서 성공을 거둘 수 있을지.

 

물론 지금 ChatCFO (재무 분석가) 까지 나온다고 하는 마당이니 그리 멀지 않은 이야기 일 것 같기도 하다.

 


 

 

나는 IBM 왓슨의 사례를 보며 느낀 것인 다음과 같다. 가장 중요한 것 중 하나는 AI 시스템을 효과적으로 훈련하기 위해 고품질의 실제 환자 데이터가 필요하다는 것이다. 또 다른 교훈은 AI 시스템이 의료 분야에 대한 깊은 이해로 개발되도록 AI 개발자와 의료 전문가 간 협업의 중요성이다.

 

앞으로 나아가 의료 분야에서 AI의 초점은 보다 실용적이고 데이터 중심적인 접근 방식으로 이동하고 있다. AI는 완전히 새로운 분야를 개발하거나 의료 전문가를 대체하기보다는 기존 의료 분야에서 의료 전문가를 보완하고 지원하는 데 사용되고 있다. 인공지능이 이미 가능성을 보이고 있는 한 분야는 컴퓨터 비전 알고리듬이 경우에 따라 인간 방사선 전문의를 능가하는 의료 영상 분야이다. 미래에는 AI가 진단, 치료 및 연구의 많은 분야에서 의료 전문가들에게 필수적인 도구가 될 것으로 예상한다.

COMMENT