- ‘120일 개선 계획’ 발표···GPT-5·자녀보호 기능 투입
- 민감한 대화 고성능 추론 모델로 자동 전환
세계 최대 인공지능 기업 오픈AI가 자사 대화형 모델 ‘챗GPT’의 안전성 논란을 잠재우기 위한 대대적 조치에 나섰다. 민감한 대화를 차세대 추론형 모델 GPT-5로 자동 전환하고, 아동·청소년을 위한 자녀 보호 기능을 신설하는 것이 핵심이다. 최근 챗GPT가 사용자의 극심한 고통 신호를 감지하지 못해 청소년 사망 사건으로 이어진 사례가 공개되면서, AI의 안전성에 대한 사회적 압력이 정점에 달한 상황이다.
민감 대화는 GPT-5로 자동 전환
테크크런치 등 주요 매체에 따르면 오픈AI는 향후 한 달 내에 새로운 보안 체계를 가동한다. 회사가 개발한 ‘라우터(router)’ 기술은 대화 맥락을 실시간 분석해 극심한 고통이나 자해 위험을 감지하면, 일반 모델 대신 GPT-5가 개입하도록 설계됐다. GPT-5는 단순한 대화 생성 모델이 아니라, 답변 전 내부적으로 더 깊은 추론 과정을 거치도록 최적화돼 있어 유해 발화를 차단하는 데 유리하다는 설명이다.
이 시스템은 오픈AI가 추진 중인 ‘120일 이니셔티브’의 핵심 과제 가운데 하나다. 회사는 앞으로 4개월 동안 안전 기준을 전면 재정비하고, 위험 대화를 조기에 차단하는 구조를 플랫폼 전반에 적용하겠다고 밝혔다.
부모와 자녀 계정 연동, 위기 알림 기능
같은 시기에 도입될 자녀 보호 기능은 세 가지다. 첫째, 부모와 자녀 계정을 연동해 사용 내역을 직접 확인할 수 있다. 둘째, 연령별로 적합한 대화 규칙을 설정해 부적절한 응답을 제한할 수 있다. 셋째, 대화 중 극심한 고통 신호가 탐지되면 즉시 부모 계정으로 알림이 전달된다.
이를 통해 부모는 자녀의 AI 사용 환경을 실질적으로 통제할 수 있게 된다. 특히 논란이 많았던 메모리·채팅 기록 기능을 끌 수 있어, AI가 민감한 개인 정보를 학습해 부적절한 답변을 만들어내는 위험을 차단할 수 있다는 점도 강조된다.
이 같은 변화의 배경에는 실제 비극적 사건들이 자리한다. 미국에서 한 십대 청소년이 챗GPT와 대화한 뒤 스스로 목숨을 끊었고, 부모는 오픈AI를 상대로 소송을 제기했다. 또 다른 사건에서는 챗GPT가 사용자의 망상을 긍정적으로 강화해 인명 피해로 이어졌다는 지적도 나왔다.

전문가들은 이런 사태의 원인을 챗GPT의 설계 방식에서 찾는다. 사용자의 발화를 긍정적으로 이어가려는 ‘다음 단어 예측’ 구조가 오히려 유해한 대화를 중단하지 못하고 강화시키는 구조적 한계로 작용했다는 분석이다.
오픈AI는 문제 해결을 위해 외부 전문가 집단과 협력하고 있다고 밝혔다. 글로벌 의사 네트워크, 웰빙 및 AI 전문가 위원회가 참여하며, 섭식 장애·약물 남용 등 특정 분야 전문가들도 포함된다. 이들은 새로운 안전 기준을 마련하고, 미래형 보호 장치를 설계하는 데 조언을 제공한다.
그러나 비판의 목소리는 여전히 높다. 청소년 사망 사건 소송을 이끄는 제이 에델슨 변호사는 “오픈AI의 대응은 본질적 문제를 해결하지 못한다”며 “이들은 챗GPT 4o가 위험하다는 사실을 출시 첫날부터 알고 있었다”고 주장했다.
이번 발표는 AI 기업들이 단순히 성능 경쟁을 넘어 사용자 보호와 책임성 있는 설계를 얼마나 진지하게 받아들이고 있는지 시험대가 되고 있음을 보여준다. GPT-5 자동 라우팅과 자녀 보호 기능이 실제 피해 예방에 어느 정도 효과를 발휘할지는 앞으로 수개월간의 운영 결과를 통해 평가될 것이다.
김지윤 기자/ hello@sciencewave.kr
Science Wave에서 더 알아보기
구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.

1 thought on “‘챗GPT 책임론’ 후폭풍…민감 대화 GPT-5로 바뀐다”