SBS Biz

챗GPT 활용하면 해고…보안·정보유출 우려에 딜레마

SBS Biz 배진솔
입력2023.05.03 17:50
수정2023.05.03 18:23

[앵커] 

챗GPT 같은 생성형 AI는 필요한 정보를 빠르게 모으고 요약할 수 있어, 상당수 기업들이 관심 있게 보고 있는 기술입니다. 

다만, 기업의 기밀 유출 등 보안 문제가 생기면서 사용을 제한하는 기업들도 빠르게 늘고 있습니다. 

배진솔 기자가 보도합니다. 

[기자] 

올해 초 삼성전자 반도체 부문 한 엔지니어가 내부 소스코드를 챗GPT에 올렸다가 기밀이 유출된 사례가 발생했습니다. 

소스코드는 프로그램 개발과정과 틀을 담고 있는 중요한 기밀 정보입니다. 

삼성전자는 결국 사업부별로 챗GPT 등 '생성형 AI'의 사용 범위를 좁히거나 제한했습니다. 

삼성전자 반도체사업을 하는 DS 부문은 글자수를 제한했고 휴대폰과 가전사업을 하는 DX는 사용이 아예 금지됐습니다. 

지침을 위반할 땐 최대 해고를 포함한 징계 조치를 받을 수도 있다고 경고한 것으로 알려졌습니다. 

삼성전자는 "회사 밖에서 생성·대화형 AI를 사용할 때 회사 정보와 개인정보 등은 입력하지 말아달라"고도 요청했습니다. 

현재 SK하이닉스와 포스코 등 다른 기업들도 사내에선 챗GPT를 사용하지 못하게 막고 있습니다. 

[김승주 / 고려대 정보보호대학원 교수: 생성형 AI라는 건 문서작성이나 업무를 하는데 편의성을 제공해주는 건 맞는데, 실제로 그걸 무분별하게 이용하다 보면 개인정보나 회사 기밀정보가 유출될 수 있습니다. 그래서 초반에 가이드라인 같은 게 정착되기 전까지는 조심할 필요가….]

내부 임직원들 설문 조사에서도 "사내 사용 시 보안 리스크가 있다"는 반응이 65%를 차지했습니다. 

다만 빠른 정보 습득과 번역, 문서 요약에선 수요가 높았습니다. 

삼성전자는 자체적으로 생성형 AI를 개발해 직원들의 업무 효율성을 높이는 방안을 검토하고 있습니다. 

LG그룹도 AI 플랫폼 '딥하우'에 투자하며 생성형 AI 개발에 나선 바 있습니다. 

SBS Biz 배진솔입니다.

ⓒ SBS Medianet & SBS I&M 무단복제-재배포 금지

배진솔다른기사
삼성전자, 10조원 규모 자사주 매입…"주주가치 제고"
현대차 노조·사장단 '세대교체' 바람