SBS Biz

오픈AI, AI 안전 책임자 다시 모집…"정신건강 영향 경험"

SBS Biz 이정민
입력2025.12.29 04:34
수정2025.12.29 05:47

[샘 올트먼 오픈AI 최고경영자(CEO). (로이터=연합뉴스 자료사진)]

챗GPT와 같은 인공지능(AI) 챗봇이 정신건강 관련 위험을 초래한다는 비판에 직면한 오픈AI가 AI의 잠재적 위험에 대비하는 책임자를 다시 모집합니다.



현지 시각 28일 미국 정보기술(IT) 전문매체 테크크런치에 따르면 샘 올트먼 오픈AI 최고경영자(CEO)는 사회관계망서비스 엑스(X)를 통해 현재 공석인 '준비 책임자'(Head of Preparedness)를 모집하고 있다고 밝혔습니다.

올트먼 CEO는 "2025년에는 AI 모델이 정신건강에 미치는 잠재적 영향을 미리 경험했다"며 또 "모델이 컴퓨터 보안 분야에서 매우 뛰어난 능력을 발휘해 중대한 취약점을 찾아내기 시작하는 모습을 목격하고 있다"고 말했습니다.

그는 AI 모델의 능력이 어떻게 악용될 수 있는지 이해하고 이를 정교하게 측정하는 능력이 필요한 시대가 됐다고 강조했습니다. 준비 책임자 직무에 대해선 "중요한 시기에 핵심적인 역할"이라며 "스트레스가 따르는 직무이며 (부임) 즉시 깊은 난제 속으로 뛰어들게 될 것"이라고 언급했습니다.

오픈AI가 이처럼 AI의 위험 대비에 다시금 나선 것은 챗GPT 이용자 일부가 망상에 시달리다 사망해 유족들이 여러 건의 소송을 제기했기 때문으로 풀이됩니다.



오픈AI는 당초 AI의 당면한 위험에 대비하는 '준비' 팀과 장기적 위험을 다루는 '초정렬' 팀을 운영해왔습니다. 그러나 올트먼 CEO를 비롯한 경영진은 지난해 5월 GPT-4o를 출시하는 과정에서 모델의 빠른 공개를 위해 안전 관련 검증을 최소화하라고 지시해 이들 팀의 반발을 산 바 있습니다. 이후 준비 팀을 이끄는 책임자는 지난해 7월부터 올해 7월까지 1년간 직무 재배치나 퇴사 등을 통해 세 차례 변경된 끝에 현재 공석으로 남아있습니다.

오픈AI 공동창업자인 일리야 수츠케버 수석과학자가 이끌던 초정렬 팀은 GPT-4o 출시 직후 수츠케버가 퇴사하면서 다른 팀으로 흡수되는 등 지난해 5월 사실상 해체됐습니다.

이렇게 안전 검증을 소홀히 한 GPT-4o는 실제로 청소년 등 일부 이용자들에 정신건강 관련 문제를 일으키고 있다는 비판을 받고 있습니다.

오픈AI는 이와 같은 비판을 의식한 듯 최근 나이 예측 모델을 도입해 이용자가 미성년자로 판별되면 자동으로 '18세 미만' 환경을 강제 적용했습니다. 챗봇이 이용자에게 지나치게 동조하는 것이 중독을 유발한다는 주장이 제기되자 '친절함'과 '열정적' 정도를 직접 조절할 수 있는 기능을 추가하기도 했습니다.

ⓒ SBS Medianet & SBSi 무단복제-재배포 금지

이정민다른기사
내년 전국 민간아파트 분양 18.8만가구…올해보다 소폭 증가
국내기업 경기전망 3년 10개월 연속 부진…새해 첫 달도 '부정적'