[시사터치] 챗GPT 시대 미디어의 역할과 책임

최충웅 언론학 박사 / 기사승인 : 2023-02-27 16:23:07
  • -
  • +
  • 인쇄
▲ 최충웅 언론학 박사
[일요주간 = 최충웅 언론학 박사] 챗GPT 열풍이 가열되는 양상이다. 챗GPT는 지난해 12월 출시된 지 40일 만에 사용자 1000만 명을 넘어서고 두 달 만에 1억 명을 돌파했다. 챗GPT에 대한 관심이 급증하면서 다양한 실험결과가 발표되고 있다. 각종 논문과 보고서 작성에서 챗GPT가 사람이 작성하는 것보다 좋다는 평가가 나오기도 했다. 의학 학술지 논문을 요약하게 했더니 과학자들도 사람이 쓴 것과 구별하지 못했다. 의료, 법조 등 고도화된 전문 영역의 지식 제공은 물론 전문가가 작성한 것으로 착각할 만큼 자연스러운 문장을 제공해 놀라고 있다.

지금 세계는 챗GPT 열풍으로 AI 경쟁이 뜨겁다. 글로벌 빅테크 기업의 AI기술 경쟁에 가속도가 붙었다. 마이크로소프트, 구글, 중국 최대 검색 업체 바이두 등이 앞다퉈 도전장을 냈다. 네이버, 카카오 등 국내 기업들도 ‘한국판 챗GPT’ 출시를 서두르고 있다. 마이크로소프트(MS)는 챗GPT 개발사인 ‘오픈AI’에 100억 달러를 투입하기로 했다. 드디어 구글이 지난 2월 6일 챗GPT의 대항마로 새로운 챗봇인 '바드(Bard)'를 출시했다. '바드'는 시인이라는 뜻이다. 챗GPT와 같은 전 세계 미래 AI 서비스 시장은 머잖아 2000조원 규모에 달할 것으로 추산된다.

인공지능 챗GPT 활용 사례가 알려지면서 파장이 일고 있다. 학술논문 초록 작성, 프로그래밍 코드 작성, 수학 문제 풀이, 발표 자료 만들기, 기사 작성 등에서 챗GPT를 활용한 사례가 속속 보도되고 있다. 당장 학교 교사 입장에서 챗GPT를 활용해 제출한 학생의 과제를 어떻게 평가할 것인가 하는 문제에 부닥친다. 이 때문에 뉴욕시는 학생들에게 챗GPT 사용을 금지했고, 중고교 학생들이 챗GPT를 쓰지 못하도록 접속을 차단했다.

미국 대학들은 집에서 해 오는 리포트 숙제를 없애고 있다. 누가 썼는지 모른다는 것이다. 세계적인 과학 학술지 ‘네이처’는 챗GPT 사용에 대해 이를 논문 저자로 인정하지 않고 만약 사용할 경우 반드시 논문에 명시해야 한다는 원칙을 제시하고 있다. AI는 논문에 책임을 질 수 없기 때문이다. 교육계에서는 숙제나 작문 등에 이를 의존하는 경우 학습능력이 저하됨은 물론 부정행위가 일상화될 것이라 걱정한다.

세계적인 AI 전문가로 꼽히는 미국 스탠퍼드대의 크리스토퍼 매닝 교수와 첼시 핀 교수 등이 참여한 연구팀은 지난 1월 26일 '챗GPT'로 학생 과제 대필 등 악용 논란에 인공지능이 만든 문장 찾아내는 '디텍트GPT' 기술(디텍트GPT·DetectGPT)을 공개했다. '창과 방패의 싸움'으로 AI 잡아내는 AI 등장한 것이다. 스탠퍼드대 연구팀의 디텍트GPT는 챗GPT 등 생성 AI의 부작용을 막기 위해 나온 기술이다.

마치 인간처럼 생각하고 글로 표현하는 AI 챗봇은 기대 이상의 놀라운 능력을 보여준다. 하지만 AI가 가진 근본적인 한계와 부작용에 대한 우려도 만만찮다. 그동안 보여준 챗GPT는 예상외로 오류와 근거없는 자료들을 제시해 의아심을 자아냈고, 더구나 2021년 정보까지만 업데이트로 학습하였기 이후 데이터는 반영이 안 된다는 단점이 있다. 그러다 보니 챗GPT의 장래가 그렇게 밝은 면만 갖고 있지 않다는 얘기들이 나온다. 또한 많이 지적되는 것은 챗GPT의 기술적 한계와 한국어 학습 데이터의 부족 부분이다.

챗GPT는 사실 확인을 하지 않고 부정확한 사실이나 잘못된 사실도 단정적인 문장으로 당당하게 확신하는 표현의 출력물을 내놓는다는 점이다. 자칫 이런 오류 거짓 정보가 가짜뉴스 진원지가 될 수 있다는 점이다. AI는 데이터를 잘못 학습할 경우 가짜뉴스를 무한 생산할 수 있다. 과도한 맹신은 지나친 우려만큼 진실을 정확히 보지 못하게 한다. 특히 인공지능 기사가 사실관계를 왜곡할 가능성이 큰 상황에서 ‘검증’의 중요성은 당연히 커질 수밖에 없다. 기사 검증이 더 중요해진 것이다.

챗GPT를 개발한 오픈AI의 미라 무라티 CTO(최고기술책임자)도 챗GPT가 없는 사실을 지어낼 가능성으로 한계가 있다”고 말했다. 챗GPT가 사실 관계가 틀린 말을 할 수 있다는 것이다. 그는 “AI는 오용되거나 나쁜 행위자가 악용할 수 있다”며 “챗GPT의 열풍은 전 세계적으로 AI를 통제하는 방법에 대한 질문을 불러왔다”고 밝혔다. 언어학자 노엄 촘스키는 “챗GPT는 첨단 표절기”라고 했다.

인공지능은 대량의 데이터를 빠르게 처리하고 분석할 수 있지만, 여전히 그 데이터의 맥락, 해석 및 분석을 제공하는 능력에 한계가 있을 수 있다. 비판적 사고와 분석력으로서 복잡한 문제를 분석하고 맥락과 해석을 제공하는 능력은 여전히 인간에게 핵심적인 역할이다. MIT-IBM 왓슨 AI 연구소의 IBM 측 책임자인 콕스 소장은 챗GPT 열풍으로 주목받는 AI 기술의 잠재력과 관련해 사람의 역할을 강조하면서 “AI는 결정 돕는 도구일 뿐 책임은 사람이 지는 것”이라 했다.

앞으로 인공지능이 인간의 노동환경을 바꾸는 요인이 될 것이며 그동안 인간이 해온 반복적 지적 노동을 인공지능이 담당하고 인간은 인공지능으로 대체할 수 없는 분야의 능력을 개발해야 할 것이다. 인간의 직관적 사고나 공감 능력은 인공지능이 흉내내기 어렵다.

이제 AI 시대는 분명 피해 갈 수도, 피해서도 안 되는 미래가 됐다. 챗GPT와 같은 AI의 확산은 시간문제인 만큼 미디어 전반에 미치는 영향과 문제점에 대한 미디어 내부의 방향성과 법제도적 정비, 사회적인 합의 등 노력이 시급하다. 챗GPT 등장은 디지털 전환기의 우리 미디어에 또 하나의 미래 충격이 될 수도 있다. 이에 대한 현명한 준비와 대처가 필요한 시점이다.

[필자 주요약력]
경희대 언론정보학부 교수
경남대 석좌교수
YTN 매체비평 출연 

방송통신심의위원회 연예오락방송 특별 위원장 

방송위원회(보도교양/연예오락)심의 위원장 

언론중재위원회 위원 

방송통신연구원 부원장 

KBS 예능국장, TV제작국장, 총국장, 정책실장, 편성실장 

중앙일보·동양방송(TBC) TV제작부 차장

 

'시민과 공감하는 언론 일요주간에 제보하시면 뉴스가 됩니다'

▷ [전화] 02–862-1888

▷ [메일] ilyoweekly@daum.net

[저작권자ⓒ 일요주간. 무단전재-재배포 금지]

최충웅 언론학 박사

오늘의 이슈

댓글 0

댓글쓰기
  • 이 름
  • 비밀번호

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.


많이 본 기사