본문 바로가기
인터넷 세상이야기

AI 기술의 파괴적 혁신에 대한 우려, 기술의 혁신적 파괴 가능성을 언론이 경고

by IT-스폰남 2023. 6. 22.
반응형

생성형 인공지능 기술

언론계는 생성형 인공지능(Generative AI) 기술을 다룰 때 주로 주의를 기울이고 있으며, 이에 따라 언론사들은 생성AI의 불확실성과 가능한 영향에 대한 조사와 분석을 진행하고 있다.

그러나 생성AI의 활용 방안과 실용적인 논의는 아직 부족한 상태이다. 특히 국내 언론사들은 생성AI 기술을 어떻게 활용할지에 대한 구체적인 계획을 갖고 있지 않은 것으로 보인다.
 
AI의 발전으로 인해 일자리가 위협받을 수 있는 우려도 있지만, AI를 도구로써 적극적으로 활용하는 현실적인 접근은 아직 제한적인 것으로 알려져 있다.
 

해외 언론사들의 논의

해외 언론사와 관련 기관들은 생성AI에 대한 논의와 활용 방안에 집중하고 있으며, 이를 통해 시스템을 정비하고 원칙과 규범을 제정하여 부작용을 최소화하고자 하고 있다.
 
몇몇 유력 언론사들은 생성AI에 대한 가이드라인을 발표하며 업무에 적용하는 방향을 공유하고 있다. Financial Times, Les Echos-Le Parisien 그룹, Reuters 등이 생성AI를 활용하는 방법에 대해 일정한 제한과 투명성을 갖추도록 규정하고 있다.

생성된 사실적 이미지의 사용을 제한하고 인포그래픽, 도표, 사진 등 증강된 시각 자료의 활용을 검토하며, 생성AI를 이용한 요약 작업은 사람 감독 아래에서 이루어질 수 있도록 고려하고 있다.
 
또한 생성AI의 활용에 대한 투명성을 위해 실험 도구의 기록과 저널리스트 교육 등을 고려하고 있다.

반응형

활용범위

레제코-르파리지앵은 FT와 비슷한 방향으로 생성AI를 활용하는 범위를 정의하고 있다. 생성AI가 만든 텍스트, 이미지, 비디오 콘텐츠는 사람 편집자의 감독과 관리 없이는 게시하지 않으며, 예외적인 활용에는 출처를 명확히 표기한다.
 
저널리스트는 검색 엔진처럼 AI를 도구로 활용할 수 있지만, 정보 활용 시에는 AI 답변이 아닌 원출처를 확인해야 한다. 콘텐츠를 다양한 채널에 배포할 때는 요약 업무에 AI를 이용할 수 있다.
 
로이터는 직원들에게 생성AI의 올바른 사용에 대한 안내 메시지를 보냈다. 로이터는 수년 전부터 여러 첨단 기술을 뉴스 제품과 서비스에 선제적으로 도입해온 기업으로서, 생성AI를 적극적으로 수용하는 의지를 보여주고 있다.
 
편집장과 윤리 편집자는 메모를 통해 생성AI를 저널리즘을 개선하고 언론인 역량을 강화할 수 있는 획기적인 기술로 규정하며, AI를 활용한 기사의 책임은 전적으로 기자와 편집자에게 있다고 강조했다.

로이터는 뉴스룸에서 제기된 AI 관련 질문을 정리하고, 각각에 대한 답변을 Q&A 목록으로 작성했다. 이후 더 많은 경험이 쌓이면 보다 공식적인 가이드라인을 발행할 계획이라고 밝혔다.
 
Wired와 Insider 같은 매체들도 이미 생성AI 도구를 사용하는 방법과 AI 뉴스룸에 대한 입장을 공개했다. 이들 매체들은 생성AI를 조심스럽게 활용하면서도 적절한 제한과 투명성을 유지하려는 노력을 보여주고 있으며, 내부에서는 AI 활용에 대한 논의와 가이드라인 수립에 집중하고 있다.
 

가짜 가디언 기사 생성의 문제

가디언은 챗GPT가 '가짜 가디언 기사'를 생산하는 문제에 대해 인식하고 회사의 고민과 대응을 상세히 설명했습니다. 가디언은 생성AI가 어떻게 책임 있는 보도에 도움을 줄 수 있는지에 대한 질문과 고민을 하고 있으며, 이로 인해 새로운 형식이나 제품을 아직 발표하지 않았다고 전했습니다.
 
해당 글은 가디언의 편집 혁신 책임자가 작성했습니다. 생성AI 활용에 대한 세부 내용은 각 언론사마다 조금씩 차이가 있지만, 모든 언론사는 안(기자)과 바깥(독자)의 시선을 모두 고려하여 회사의 방침을 알리고 이해와 협조를 구하려는 의도를 가지고 있습니다.

또한, 언론사들은 기술의 역동성에 휩쓸리지 않고 주체적으로 생성AI를 적용해 나가려는 의도를 공개적으로 밝히고, 불필요한 우려나 오해를 줄이기 위해 내부 의사결정 과정과 결과를 투명하게 공개하려는 노력을 기울이고 있습니다.
 
하지만 생성AI는 언론사들에게 양날의 검이 될 수 있는 문제도 있습니다. 따라서 생성AI를 적절하게 활용하고 관리하기 위해서는 신중한 접근이 필요합니다.
 
예를 들어, CNET은 AI로 작성한 기사를 실험적으로 게시한 후에 팩트 오류와 윤리적 문제가 발생하여 실험을 중단한 적이 있습니다. 이후 CNET은 명확한 사용 방침을 마련하였습니다.
 
한국의 많은 언론사들도 이러한 상황과 고민을 마주하고 있습니다. AI가 자연스러운 뉴스를 구성하는 도구로 적절히 활용될 수 있지만, 그렇지 않으면 피해를 입을 수도 있습니다.
 
그러나 한국 언론사들은 종종 관찰자로서 AI 기술의 발전을 지켜보는 듯한 모습을 보여주고 있습니다. 이에 비해 해외 언론사들은 CEO를 중심으로 각 부문장들이 모여 생성AI 전략을 협의하고 실행 계획을 구체화하는 등 조직 전체에서 생성AI에 대한 전략을 구상하고 있습니다.

 

반응형