Introduction
영국의 암호학자 앨런 튜링(Alan Turing, 1912-1954)과 체코슬로바키아 출신의 미디어 철학자 빌렘 플루서(Vilem Flusser, 1920-1991), 프랑스의 미술가 마르셀 뒤샹(Marcel Duchamp, 1887-1968). 출신 국가도, 활동 분야도 모두 다른 이 셋을 하나로 묶는 공통 요소가 있다. 그것은 바로 이들의 인생과 작품에 체스가 중요한 화두로 등장한다는 것이다.
Turing은 1950년 인공지능 논문 ‘Computing Machinery and Intelligence’에서 인간 심문자가 대화를 통해 상대가 인간인지 기계인지 구별할 수 있는 ‘Imitation Game’이란 개념을 제시한다. ‘Turing Test’라고도 알려진 이 게임에서 Turing은 상대가 인간이라는 것을 확인하기 위한 질문 몇 개를 예시로 드는데, 그 중 하나가 체스 질문이다. “내 K1 위치에 King이 있고 다른 말은 없다. 당신은 K6에 King이, R1에 Rook가 있다. 당신이 둘 차례다. 어떻게 하겠는가?” 이 질문에 상대가 “(15초 침묵한 뒤에) R8에 R, 장군”이라고 답한다면 (Turing, 1950), 상대는 인간일까 혹은 인간인척 하는 기계일까. Turing은 1948년에는 동료 데이빗 챔퍼나운(David Champernown)과 최초의 체스 게임용 컴퓨터 프로그램인 ‘Turochamp’ 개발에 착수하기도 했다.
Flusser의 저서 ‘Towards a Philosophy of Photography’에도 체스는 중요한 비유로 수차례 등장한다. 그는 카메라 프로그램의 한계를 넘어 새로운 가능성을 끊임없이 탐구하는 이를 사진가(photographer)로 명명하면서, 이들을 체스 선수에 비유한다. “체스 플레이어는 체스 프로그램에서 새로운 가능성, 새로운 움직임을 추구한다. 체스 말을 가지고 노는 것처럼 사진가도 카메라를 가지고 논다.” (Flusser, 2006, p.27). 현대 미술의 거장인 Duchamp은 “모든 예술가가 체스 선수는 아니다, 다만 모든 체스 선수는 예술가다”라는 말을 남겼을만큼 예술과 체스를 동일시했다, 말년에는 체스 선수로 유명했을만큼 그 스스로 체스같은 삶을 살기도 했다(Savage, 2008). 체스는 단순한 게임의 의미를 넘어, 인간의 지성과 창의성에 대한 상징이었다. 독일 철학자 요한 볼프강 괴테(Johann Wolfgang von Goethe)는 체스를 “지성의 시금석(the touchstone of the intellect)”, 프랑스 수학자 블레즈 파스칼(Blaise Pascal)이 “마음의 운동장(the gymnasium of the mind)”이라고 말한 것도 이 때문이다 (Keene, 2014).
서양에 체스가 있었다면, 동양에는 바둑이 있다. 바둑은 약 4000년 전 중국에서 시작된, 세계에서 가장 오래된 보드게임이다 (Lai, 2004). 19 X 19 바둑판 위에 흑돌과 백돌을 번갈아가며 놓는데, 체스보다 구골(googol, 10의 100제곱)배 더 복잡한 것으로 알려져 있다. 바둑에서 나올 수 있는 모든 경우의 수는 10의 170제곱으로, 관측 가능한 우주의 원자 수보다 많다 (Google DeepMind, 2020). 고대 중국에선 바둑을 거문고, 서예, 그림과 함께 4대 예술로 지정해 학자가 능해야 할 항목으로 삼았다 (Tegmark, 2017). 8세기 중반 중국 당나라에서는 왕과 바둑을 두고, 바둑 전체를 관장하며 나라에 전파하는 ‘기대조’라는 전문 관직을 따로 두기도 했다. 일본은 도쿠가와 막부 시절부터 바둑을 국기로 제정하고 전문 기사들에게 월급을 주며 이들을 육성했다 (Lee, 2024). 알버트 아인슈타인(Albert Einstein)을 비롯해 앨런 튜링, 빌 게이츠(Bill Gates) 등 많은 이들이 바둑에 심취했다 (British Go Association , no date).
이처럼 동서양 인간 지성의 상징이었던 체스와 바둑은 현재 AI에게 위협받고 있다. 체스와 바둑의 세계 최고수였던 개리 카스파로브(Garry Kasparov)와 이세돌(Sedol Lee)이 각각 1997년, 2016년 AI에게 나란히 패배했다. Kasparov를 꺾은 IBM의 딥블루(Deep Blue)는 총 32개 프로세서를 동원해, 초당 2억개의 체스 위치를 무차별 대입해 고속 병렬 계산하는 brute-force 알고리즘을 활용했다 (IBM, no date). 그로부터 약 20년 뒤 이세돌을 이긴 구글의 알파고(AlphaGo)는 무차별 대입 대신 한층 인간의 뇌를 닮도록 진화한 인공 신경망 방식을 적용했다. 알파고는 과거의 바둑 기보를 학습한 뒤 수없이 많은 자가 게임을 통해 실력을 개선해나가는 방식을 썼다. 이후 버전의 알파고제로는 기보 학습조차 하지 않고, 자기 자신과 스스로 경기를 하며 터득하는 방식으로 단 3일만에 이세돌을 이겼던 버전의 알파고를 꺾으며 또 한번 진화했다 (Silver and Hassabis, 2017). 아름답고 창의적인 인간의 예술이, 무자비한 계산 기계에게 무너지는 모습을 본 인간의 실망과 충격은 컸다. 2억명 이상이 바둑 AI 알파고와 바둑 고수 이세돌의 경기를 지켜보며 탄식했다 (Google Deepmind, 2020). 이후 신경망 기반 AI는 이메일 문장 자동완성, 은행의 사기 감지, 사진 앱의 얼굴 자동인식, 텍스트 요약, 신약 개발 등 광범위한 분야에 활용되며 일상 생활 곳곳을 바꿔 나가고 있다 (Thompson, 2022).
그로부터 10년도 채 지나지 않은 2022년말 오픈AI가 출시한 챗GPT(Chat GPT)는, 인간의 창작 영역을 겨냥한 ‘생성형 AI’ 바람을 몰고오며 또 다시 인간을 두려움에 몰아넣고 있다. 생성형 AI는 훈련된 데이터를 기반으로 고품질 텍스트, 이미지 혹은 기타 콘텐츠를 생성할 수 있는 딥러닝 모델을 뜻한다 (Kim, 2021). 텍스트에 특화된 챗GPT, 이미지를 생성하는 미드저니, 비디오용 런웨이 등 다양한 기능의 AI가 지속적으로 출시되고 있다.
생성형 AI는 미술대회에서 1위를 하고 (Roose, 2022), 노래 공모전에서 우승하고 (Hyung, 2024), 권위있는 문학상을 받는 등 (Averre, 2024) 창의성의 영역에서 인간을 위협하는 행보를 보이고 있다. 게다가 크리스탈리나 게오르기에바(Kristalina Georgieva) IMF 총재가 “AI가 향후 2년 내에 선진국 일자리의 60%, 전 세계 일자리의 40%에 영향을 미치고 전반적인 불평등을 심화시킬 가능성이 높다”고 밝히는 등 (Liang, 2024) 그 파괴적 영향력에 대한 전망이 잇따르며, 새로운 기술 저항의 상징인 19세기 ‘러다이트 운동(Luddite Movement)’의 기억이 되살아나고 있다. 지난해 테크 리더 1000여명이 ‘사회에 심각한 위험인 최첨단 AI 시스템 개발을 중단해야 한다’는 공개 서한을 낸 것을 비롯해 AI 개발을 중단을 촉구하는 많은 성명이 발표된 것이 대표적이다 (Metz and Schmidt, 2023). AI의 등장에 따른 인간의 조기 종말을 예견하는 네오 러다이트(Neo-Luddites)도 등장했다 (Lamont, 2024). Turing은 그의 1950년 논문 ‘Computing machinery and intelligence’에서 ‘기계가 생각할 수 있는가’란 질문이 당장은 “너무 무의미해서 논의할 가치가 없다”고 했지만, “이번 세기 말이 되면 단어의 사용, 사람들의 견해가 꽤 많이 바뀌어 어떤 모순 없이도 ‘생각하는 기계’에 대해 말할 수 있게 될 것”이라고 했다. 시간은 조금 더 흘렀지만 그의 추측이 어느 정도 현실화된 셈이다.
19세기의 러다이트 운동이 결국 자동화의 흐름을 거스르지 못했듯이, 네오 러다이트의 등장에도불구하고 AI 혁명을 선도하는 기술 기업들은 일상을 ‘AI 판’으로 바꿔 나가며 모두를 AI 유저로 만들겠다는 그들의 목표를 분명히 하고 있다. 마이크로소프트는 포털 검색엔진 빙에 AI 챗봇 ‘코파일럿’을, 메타는 페이스북 검색 창에 ‘메타 AI’를 탑재해 AI가 이용자 질문에 응대하도록 하고 있다. 2024년 5월 오픈AI가 실제 사람과 대화하는 것처럼 지연속도가 0.32초에 불과한 대규모 언어모델 ‘GPT-4o’를 출시하자, 메타는 최신 AI모델 ‘라마 3.1’을, 구글은 ‘제미나이 1.5플래시’를 잇따라 선보이며 경쟁을 이어가고 있다. The Atlantic은 “기술 기업들이 과대 광고로 부풀려진 기차를 만들었지만, 사람들은 기꺼이 그 열차에 탑승한다”며 “모든 산업의 리더들은 큰 기회를 놓칠까 두려워 계약서에 서명하고, 돈을 지불하지만 아마도 그들은 자신이 정확히 어떤 거래에 참여하고 있는지도 모른 채 계약을 체결하고 있을 것”이라고 지적한다 (Warzel, 2024). AI 열차는 이미 출발했고, 많은 이들은 영문도 모른 채 열차에 올라타 주위를 부지런히 살피고 있다. 이것이 과대 광고인지, 실체가 분명한 위협인지 알 수 없다. 다만 분명한 것은 AI가 세상을 빠르게 바꾸고 있으며, 어떤 방식으로든지 우리는 이와 함께 살아가는 법을 배워야 한다는 것이다.
AI는 사회 전 영역, 수많은 일자리에 직간접적 영향을 미치고 있는 가운데 이 논문은 정보기술 산업의 한 분야인 뉴스룸의 사례에 주목한다. 뉴스룸은 저널리즘을 위한 텍스트, 이미지, 비디오를 생산하는 곳으로 생성형 AI 혁명에 가장 많은 영향을 받는 산업 현장이다. 뉴스룸에서 저널리스트가 행하는 많은 작업들은 창의적인 능력이 필요해 자동화의 바람에서 비껴져 있는 것처럼 여겨져왔다. 하지만 지난해 6월 독일의 대표 타블로이드지 빌트를 보유한 Axel Springer SE는 편집, 교열 담당자 등을 중심으로 수백개의 일자리를 없애고 이들의 업무를 AI로 대체한다고 발표해 업계에 충격을 줬다 (Hille, 2023).
뉴스룸은 여느 산업현장처럼 자동화의 흐름 속에 민감하게 변화를 거듭해왔다. 뉴스룸의 자동화는 디지털 시대 이전부터 시작됐다. 1845년 사무엘 모스가 전신을 발명하면서, 기존에는 수일에서 수주가 걸렸던 뉴스 전달 시간이 불과 수분으로 크게 단축되는 뉴스 혁명이 일어나게 됐다. 또 기존에 장황한 소설체로 작성해 우편으로 보냈던 기사 형식은, 전신의 비싼 비용과 자주 끊기는 통신의 안정성 문제 때문에 가장 중요한 내용부터 순서대로 압축해 보내는 역피라미드 방식으로 바뀌는 계기가 됐다 (Scanlan, 2000). 1960년대 컴퓨터 조판 시스템의 도입은 기존 문선공들의 수작업을 대체하면서 뉴스 전달을 더 빠르게 하고, 기자들에게는 더 많은 시간을 취재에 할애할수 있는 여건을 마련했다. 1970년대 비디오의 도입은 당시까지 필름으로 제작됐던 방송 뉴스의 편집이 더 빨라지고, 샷은 짧아지고, 내러티브는 훨씬 빨라지는 스토리텔링 방식의 변화를 가져왔다 (Powell, 1993). 1990년대 초고속 인터넷, 2000년대 스마트폰의 확산으로 온라인이 뉴스 소비의 핵심축이 되면서 뉴스 스토리텔링 방식은 또 다시 변하고 있다. ‘what’s going on’, ‘what it means’같은 중간 제목을 달아 개조식으로 핵심만 전달하거나, 독자가 마치 뉴스 현장에 직접 있는 것 같은 느낌을 주는 몰입형 인터랙티브 멀티미디어 뉴스 보도 역시 확산하고 있다. John Pavlik (2000)은 “저널리즘은 항상 기술에 의해 형성돼 왔다”며 “기술 변화는 (1) 저널리스트의 업무 수행 방식, (2) 뉴스 콘텐츠의 성격, (3) 뉴스룸과 뉴스 산업의 구조와 조직, (4) 뉴스 조직과 저널리스트, 그리고 수많은 대중 간의 관계에 영향을 미친다”고 했다. 창의적인 공간으로 여겨졌던 뉴스룸의 사례는 다른 산업 현장에 순차적으로 닥칠 AI 충격을 사전에 살펴보는 마법구슬이 될 수 있다.
세부적으로 생성형 AI를 도입해 저널리스트의 글쓰기를 대체하기 시작한 한국 뉴스룸을 케이스 스터디로 분석한다. 이는 고위험 AI를 전면적으로 도입한 선제적인 예라고 할 수 있다. AP의 AI프로덕트 매니저 Ernest Kung은 뉴스룸의 자동화 단계를 세 단계로 구분한다 (Choi, 2023). 첫 번째는 기자나 언론사 스태프의 업무 자동화(process automation)로, 기사를 출고하는 즉시 소셜미디어에 자동 게시하거나 이메일 수신 즉시 적절한 폴더로 이동시키는 것 같은 단순 작업이다. 두 번째는 저위험 AI(low-risk AI)로, 기업 실적이나 스포츠 경기 결과와 같은 템플릿 기반의 자동 기사 작성이 이에 해당된다. 마지막은 고위험 AI(high-risk AI)로 생성형 AI를 이용한 기사 및 이미지·동영상 제작이 여기에 속한다. 인터넷의 정보를 바탕으로 생성형 AI가 만들어낸 답변은 답변 도출 과정을 파악하기 어려울뿐만 아니라 오류 가능성 역시 높기 때문이다.
Flusser는 그의 저서 ‘Towards a Philosophy of Photography’ (2006)에서 이같은 고위험 AI를 카메라에 비유해 ‘블랙박스(Black Box)’라는 개념으로 설명한다. 카메라는 이용자에게 사진을 마음대로 찍을 수 있는 엄청난 자유를 부여하는 기계같지만, 실상은 이용자의 의도가 어떻게 결과물로 도출되는지 확인할 방법이 없고 또 이에 의존하다보면 결국 창의성을 잃고 셔터만 누르는 존재로 전락할 수 있다는 통찰이다. 뉴스룸의 AI가 바로 ‘블랙박스 카메라’와 같은 존재다. Mackay and Avanessian도 칼 마르크스(Karl Marx)를 인용해 “개인은 새로운 기계 문화에 편입돼 그 세계에 적합한 습관과 사고 패턴을 갖게 되고, 사회적 존재로서 돌이킬 수 없이 재주체화된다” (2014, p. 9)고 했다.
자동화는 인간과 기계가 꾸준히 업무 경계를 재설정하는 과정이었다. 기계가 인간의 반복적인 업무를 대신해 나갈 때마다, 인간은 경계에서 한 발 물러나 인간이 더 잘 할 수 있는 일에 집중해왔다. 뉴스룸도 자동화 기술에 상당 부분 의존하면서도 지속적으로 인간의 창의성을 경계로 지켜왔다. 예를 들어, AP뉴스는 2014년부터 워드스미스(Wordsmiths)라는 AI 소프트웨어를 통해 기업들의 분기 실적 자료를 기사로 자동 생성하면서도 인간과 기계의 업무 분담을 명확히 하고 있다(LeCompte, 2015). AP는 AI를 통해 실적 자료가 발표된지 1분만에 최대 500단어 분량의 기사를 신속하게 전달한다. 페덱스(Fedex)가 2014년 4분기에 8억9500만달러의 적자를 발표했을 때 AI는 매출과 손실액, 전년 대비 비교, 월가 전망과 비교, 페덱스의 주가 추이를 담은 기사를 자동 생성했다. 대신 담당 기자는 유류할증료 인하, 달러 강세 등 페덱스의 실적 하락 배경에 대한 분석을 해당 기사에 추가로 입력하며 서로 잘 하는 분야에 더 집중했다. AP는 이 프로그램을 2012년부터 MLB 마이너리그 야구 경기 등 스포츠 경기에도 접목하기 시작했다. 이를 통해 인간은 중요한 스포츠 경기에 더욱 집중할 수 있게됐다.
AI에게 패배했지만 여전히 명맥을 지켜가며 제 2의 전성기를 구가하고 있는 체스는, 우리에게 인간과 기계의 경계를 정하는 방법에 대한 지혜를 준다. 27년 전, AI에게 패했던 체스 세계 챔피언 Kasparov는 체스계를 떠나지 않고 인간과 기계가 한 팀이 되어 싸우는 ‘Centaur chess’라는 신개념 체스를 선보인다. 인간–기계 연합팀은 최고급 체스 컴퓨터마저 이길 수 있는 가능성과 잠재력을 선보인다. 이 논문은 Centaur의 강점을 분석하고, 이를 뉴스룸에 접목한 ‘Centaur Journalism’이라는 새로운 화두를 제시한다. 눈 앞에 앉은 기계로부터 체크메이트(Checkmate)를 당하고 말 것인지, 아니면 그와 한 편이 되어 메이트(Mate)가 될 것인지에 대한 문제는 어느 산업 현장에서든 가치있는 고민이 될 것이다.
마지막으로 인간과 AI가 공존하기 위한 방법을 Flusser의 Blackbox 이론, 한스 모라벡(Hans Moravec)의 역설을 바탕으로 탐구한다. AI를 통해 새로운 저널리즘의 가능성을 찾아낸 2024년 퓰리처상 수상작 분석과 플루서의 체스 선수 비유가 교차하는 지점에서 우리가 나아가야 할 길을 모색한다. 비록 뉴스룸에서 일하지 않는다해도, AI 시대를 살아가는 우리 모두에게 줄 수 있는 보편적인 교훈을 모색한다.
한국은 국민 상당수가 ‘얼리어답터’라고 할 수 있을만큼 기술에 개방적인 국가다. OECD 조사에 따르면, 한국은 37개 회원국 대상 조사에서 AI 도입률이 1위(10인 이상 기업 대상, 2022년 기준)로 나타났다 (OECD, 2024). 사물인터넷과 빅데이터 분석 도입률 역시 1위였다. 2024년 골드스미스 런던대앞선 연구에서도 한국은 혁신적인 기술 도입과 새로움을 추구하는 경향이 강한 국가로 다뤄졌다 (Jung et al., 2012; Choi et al., 2013).Choi, 2024a(Chosunilbo, 2024)AI가 기사를 작성하면 인간 편집자가 오류를 확인하고 출고하는 방식이다.
그간 ‘로봇 저널리즘’ ‘알고리즘 저널리즘’이란 이름으로 기사 생성 자동화가 이뤄졌지만, 그 적용 대상은 주로 날씨, 지진 보도, 스포츠 및 부동산 뉴스, 기업 실적 기사 등 일부 영역으로 제한돼 왔다. 이런 기사들의 공통점은 ‘왜’가 아니라 ‘무엇’에 대해서만 대답하는, 정량화 가능한 사실만을 보도한다는 데 있다 (Sirén-Heikel et al., 2019). 조선일보의 생성형 AI 활용은 조회수를 목표로 하는 흥미 위주 기사까지 포함한다는 특징이 있다. 이는 한국 뉴스룸들에게 선호 대상은 아니지만 온라인 조회수에 따른 광고 수익 유지, 독자수 확장을 위해 버리기는 어려운 존재다. 일선 기자들이 이 같은 기사 작성을 꺼리다보니 일부 언론사는 온라인 뉴스를 전담하는 팀이나 자회사를 꾸려 포털 노출용 기사를 양산하고 있는데 (Korean Journalist Association News, 2022), 결국 생성형 AI에게 공이 돌아간 셈이다.
조선일보가“’A yellow jab made my fat dissolved’, Korean lemon bottle jab goes viral in the UK” (Kim, 2023)란 기사다. 이른바 ‘레몬 주사’라고 불리는 한국산 노란 용액을 베이컨 지방 부위에 주입했더니 지방이 녹아내리는 영상이 틱톡에서 화제가 됐고, 영국의 일부 미용 클리닉들이 이를 다이어트 치료에 활용하고 있다는 내용이다. 영국 가디언의 기사를 인용 보도한 가십성 기사로, 온라인 뉴스를 전담하는 조선일보 자회사의 기자가 AI의 도움을 받아 작성했다. 조선일보는 생성형 AI를 신문용 기사에는 적용하지 않겠다고 밝혔기 때문에, 오직 온라인 뉴스용으로만 발행됐고 실제로 한국 최대 검색 포털인 네이버에서 주간 페이지뷰 1위를 기록하는 성과를 거뒀다. 회사는 AI를 통해 온라인 뉴스 생산에 대한 기자들의 부담을 덜고, 대신 주력 매체인 신문 기사에 더욱 시간과 노력을 많이 쏟게 하겠다는 뜻이라고 밝혔다 (Chosunilbo, 2024). 생성형 AI라는 신기술을 온라인에서 이용자들의 관심을 끄는 기사를 빠르고 쉽게 생산하는데 활용하기로 한 것이다. 이는 신문과 온라인이라는 뉴스 채널을 이분화해, 온라인에서는 조회수를 염두에 두는 경쟁도 하되 신문에서는 고급 저널리즘을 하겠다는 전략을 쓰는 것으로 해석된다. 한국 최대 미디어그룹이 기사 작성에 전면적으로 생성형 AI를 도입한 것은 한국 언론계에서 큰 주목을 받았다 (Park and Geum, 2024).
이 같은 현상은 지역 매체로도 확산하고 있다. 지역 일간지인 충북일보는 2024년 2월 창간 21주년 특집 지면을 챗GPT에게 맡기는 파격적인 실험을 했다 (Kim, 2024). 1면 기사의 제목은 ‘미래가 현실로…”기사 작성해줘” 10초면 완성’이었다. 이 신문은 창간기념호 1면과 2면을 챗GPT와의 문답으로 모두 채웠다. ‘국회의원 선거 전망’ ‘인구감소 해법’ ‘교육환경 개선’ ‘도시발전 계획’ 같은 기자의 질문에 챗GPT가 답한 것을 그대로 실었다. 이미지도 AI가 만든 것을 활용했다. 회사 측은 특집 기사 작성에 5분도 채 걸리지 않았다고 밝혔다. 한국기자협회보는 “인간 기자들의 검수가 있었다지만 ‘챗GPT에 물었더니 정치 현안에 이렇게 답하더라’는 기사는 비판받을 여지가 큰 방식”이라고 지적했다 (Choi, 2024b). 이에 대해 충북일보 김정호 편집국장은 기자협회보와 인터뷰에서 “AI가 다소 피상적인 답을 했지만 주제가 ‘저출산 대책’ ‘미래 사회 발전’처럼 범용적이라 가능하다고 봤다. 리스크는 있지만 관심을 끄는 실험 성격에 의미를 뒀다”고 말했다 (Choi, 2024b). AI에게 중요 현안을 물어보는 것에 대한 비판을 감수하더라도, 지역신문이 신기술을 콘텐츠에 활용하려는 시도를 하면서, 독자들에게 앞서있다는 인상을 주면서 관심도 끄는 것에 더 가치를 둔 것이다. AI를 사용한다는 것은 항상 최신 뉴스와 트렌드를 다루는 뉴스룸이 스스로도 첨단 기술의 장이라는 것을 보여주는 일종의 과시 효과도 있다.
한국뉴스룸에선저널리즘위기의상황에서, AI 흐름마저 제대로 따라잡지 못하면 영원히 경쟁에서 낙오할 수 있다는 조바심이 나타난다. AI 도입에 경쟁적인 모습은 한국 뉴스룸 전반에서 관찰된다. 한국신문협회가 2024년 1월, 소속 회원사 23곳을 대상으로 설문 조사를 실시한 결과, 19곳이 “생성형 AI 기술을 활용하고 있거나 도입할 계획”이라고 밝혔다. 발행량 기준 한국 2위 신문사인 동아일보는 경제뉴스 관련 질문에 답해주는 AI 챗봇 ‘AskBiz’를 개발했고, 한국경제신문은 일러스트레이터 대신 생성형 AI 프로그램을 통해 그래픽을 대체해나가는 실험을 하고 있고 편집부에선 제목을 달기 전 AI 요약 서비스를 통해 기사 내용을 빠르게 파악한다 (Choi, 2024b). 하지만 자체 AI 가이드라인을 마련한 곳은 19곳 중 2곳에 그쳤다 (Korean Association of Newspapers, 2024). 생성형 AI를 기사 작성에 활용하기 시작한 조선일보와 충북일보 역시 AI 가이드라인이 없다.Barrett, 2023; Khalaf, 2023; The New York Times Company, 2024)AI 활용에 가장 앞서있는 AP도 생성형 AI가 오류를 담고있을 가능성이 너무 높아 기사 작성 과정에는 활용하지 않는다고 밝혔다 (Barrett, 2023).
생성형 AI가 검색의 패턴을 바꾸고, 이는 언론사의 주요 수익모델마저 근본적으로 흔들 수 있다는 주장도 나온다. Warzel (2024)은 “검색 패러다임은 바뀌어야 하며 웹페이지가 유물이 되는 것은 당연한 일”이라고 경고한다. 기존의 구글 검색은 최적화된 콘텐츠가 청중에게 도달하게 함으로써 온라인에서 창의적인 작업을 할 수 있는 기초적인 비즈니스 모델을 제공했지만, 챗봇이 모든 웹페이지를 건너뛰고 뭉뚱그린 답변을 내놓는 시대에는 콘텐츠를 창작자들이 큰 타격을 입을 것이란 얘기다. 그는 워싱턴포스트가 뉴스룸 모든 곳에 AI를 도입할 계획이라고 밝혔다는 소식에, “자신들을 궁극적으로 파괴할 회사를 무의식적으로 돕고 있는지 모를 것”이라고 지적한다.
이 같은 우려에도 불구하고 한국 뉴스룸이 생성형 AI를 전면 도입하는 이유는 단지 기술 개발의문제로만 볼 수 없고, 사회문화적 맥락에서 해석이 필요하다. 그 배경에 쇠락하는 미디어 산업, 제한적인 온라인 비즈니스 모델, 언론과 저널리스트에 대한 사회적 불신, 낮은 언론 윤리, 효율성을 중시하는 언론사 경영진의 판단과 같은 요인이 깔려있다.
Kim (2023)은 테크놀로지의 변화로 끊임없는 뉴스 공급이 핵심 과제가 되면서, 기자들이 더 빨리 더 많은 뉴스를 공급해야 하는 상황이 빚어졌다고 지적한다. 한국언론진흥재단이 발간하는 언론인 인식조사 보고서에 따르면, 언론사(신문사, 인터넷, 통신사) 기자들이 일주일에 작성하는 기사 건수는 2019년 22.8건에서 2023년 25.7건으로 늘었다 (Korea Press Foundation, 2019; 2021; 2023). 재단은 “상대적 차이가 있을뿐 모두 지나치게 많은 기사 부담을 지고있다”며 “이는 기자들의 직무 소진을 가속화하고, 심층 취재와 교차 확인을 어렵게 해 저널리즘의 품질에도 악영향을 미친다”고 분석했다. 실제로 (Lee et al., 2022)
Jung et al. (2017)은 한국의 이용자들이 뉴스 작성자가 ‘인간’이 아닌 ‘알고리즘’으로 표시됐을 때 해당 기사에 더 높은 점수를 부여한다는 사실을 발견했다. 실험 도구로 실제 인간이 쓴 기사와 알고리즘이 쓴 기사를 각각 제공하는 두 품질 조건에서 모두 동일하게 이같은 현상이 나타났다. 저자들은 “언론인의 신뢰도에 대한 대중의 부정적인 태도와 새로운 ICT 제품, 서비스에 대한 갈망”을 이유로 분석했다. 또 알고리즘에 대한 기대치가 낮았던 이들은 기사를 읽고난 후 기대보다 더 좋았다고 생각하고, 반면 기자가 쓴 기사는 상대적으로 이들의 기대치에 미치지 못했을 가능성이 있다고 추론했다. 저널리스트보다 AI가 쓴 기사를 더 선호하는 한국의 상황이, 언론사들로 하여금 AI에게 기사 작성을 적극적으로 맡기는 원인 중 하나가 됐을 것이라 추론할 수 있다.
뉴스 이용자들이 저자 정보를 잘 확인하지 않는다는 사실도 중요하게 고려해야 할 요소다(Schmidt, 2018; Tandoc et al., 2020). AI가 썼다는 안내 문구를 남겨도 사람이 썼는지, 기계가 썼는지 잘 주의를 기울이지 않는다. 품질면에서도 AI가 작성한 기사와 인간 저널리스트가 작성한 기사를 잘 구분하지 못하는 것으로 나타났다 (Clerwall, 2014; Van der Kaa et al., 2014). Jung et al. (2017)은 기계가 잘하고 있거나, 저널리스트가 잘 못하고 있거나, 혹은 둘 다 못하고 있다는 의미일 수 있다고 지적했다. 이런 상황에서 뉴스룸에 생성형 AI를 도입하는 것은 달콤한 유혹이다. AI에 보도자료나 취재 자료를 입력하면 10초도 되지 않아 2000자 남짓한 기사를 뚝딱 만들어낸다. 인간 저널리스트가 썼다면 족히 1시간은 걸렸을 일이다. 인간이 기사 하나 쓸 때, AI는 수백개의 기사를 쏟아낼 수 있다. AI는 인간이 잠든 밤에도 일하고, 아프지도, 휴가를 달라고도 하지 않는다. 조선일보는 AI 뉴스 작성에 서버 사용료 등으로 한달에 수백만원의 고정 비용이 들어가며, 뉴스를 생성할 때마다 비용이 추가로 들기 때문에 월 5000건으로 사용 횟수가 제한돼 있다고 밝혔다(Chosunilbo, 2024). AI 기사생산에 비용이 들어가긴 하지만, 인간 저널리스트에 투입되는 인건비와 소요 시간 등을 감안하면 경영진 입장에선 AI가 일정 영역에서 뉴스를 대량 생산하는 것은 인간 대비 합리적이라는 판단을 할 수 있다.
AI에 한 번 발을 들인 뉴스룸은 이 같은 상황에서 쉽게 빠져 나오기 어려울 가능성이 있다. AI를 통해 사람들의 호기심을 끄는 연성 기사를 이전보다 더 빠르고 효율적으로 쏟아내면서, 더 많은 광고 수익을 거두게 된 뉴스룸이 스스로 이를 멈출 수 있을까. 테크 기업들이 잇따라 내놓는 생성형 AI가 언론사들의 ‘onboarding tool’로 작용하고 있는 셈이다. Merriam-Webster 사전은 onboarding을 “신규 고객이 특정 제품이나 서비스에 익숙해지는 행위나 과정”으로 정의한다(Marriam-Webster, 2024). 처음엔 호기심 혹은 위기감으로 서비스에 발을 들이지만 점점 서비스에서 벗어나기 어려워지게 된다. 히토 슈타이얼(Hito Steyerl)은 지난해 언론 인터뷰에서 생성형 AI가 기술 대기업을 위한 ‘onboarding tool’에 불과하다고 평가했다(Brown, 2023). 본질적으로 독창적인 결과물을 내놓지 못한다는 점도 주요한 비판 거리다. 슈타이얼은 “(생성형 AI의 결과물은) 대부분 꽤 형편없다”고 말한다 (Brown, 2023). 저명한 기술 작가인 테드 창(Ted Chiang)은 “챗GPT는 웹의 흐릿한 JPEG” (2023)라고 했다. 챗GPT는 인터넷에 존재하는 원본의 상당 부분을 유지하기는 하지만, 일부 정보를 빠뜨린 흐릿한 JPEG에 불과할뿐이라는 것이다. AI가 직접 기사를 쓰면 쓸수록, 저널리즘 업계의 고질적인 문제인 ‘클릭베이트’ 문제는 더 악화할 가능성이 있다.
뉴스룸 내부적으로도 우려가 커지고 있다. 기자들이 자동화된 프로세스의 부속품으로 전락하며, 전문성을 잃는 deskilling 현상이 대표적이다. 실제로 앞선 자동화의 역사 속에서도 기존에는 수년간의 훈련이 필요했던 작업들이 단순하고 일상화된 작업으로 바뀌면서, 노동자들의 장인 정신 해체를 초래했다 (Sutton, 2018). Linden (2017)은 “앞으로 젊은 신입 기자들이 맡게 될 초급 업무가 컴퓨터에 의해 처리될 위험이 크며, 이는 암묵적 지식을 습득하기 위해 다른 경로를 택해야 한다는 것을 의미한다”며 “저널리스트는 점점 더 무의미한 기계 조작자로 전락할 위험이 있다”고 지적한다. 앞서 생성형 AI를 기사 작성에 도입한 조선일보도 기자들의 생성형 AI 구독비까지 지원해가며 AI 사용을 적극 권장하고 있지만, 정작 주니어 기자들의 자체 기사 작성 AI 활용은 금지하고 있다. 한창 기사 작성법을 배워야 할 기자들이 AI에 글쓰기를 의존하면 기사 작성 실력이 저하되는 현상이 나타날 것을 우려했기 때문이다 (Chosunilbo, 2024).
한국 언론사들의 경쟁적인 AI 도입에 브레이크를 밟은 것은 포털이었다. 한국 최대 포털이자 최대 뉴스 공급처인 네이버는 AI 작성 기사에 대한 뉴스 유통 가이드라인을 설정하고, AI 기사가 검색 결과에 제한적으로 노출되도록 했다. AI 기사는 검색 노출에서 제외되는 별도의 뉴스 카테고리로 보내고, 사람이 뉴스 제작에 상당하게 관여한 AI 기사의 경우에만 하루 10건까지 검색되도록 허용한 것이다 (Geum, 2024). 자체 AI 기술을 보유한 네이버는 “생성형 AI는 축적된 데이터와 학습을 토대로 결과를 생성하기 때문에 새로이 변화하는 정보에 대해서는 정확성이 부족할 수 있고, 인간의 지능과 창의성을 완벽히 모방하지는 못하는 기술적 한계가 분명 존재하기 때문”이라고 설명했다 (Naver, 2024). 네이버가 한국 뉴스 유통의 62%를 장악하는 독특한 구조에서, 플랫폼 기업이 언론사들의 기사 작성 AI에 제동을 건 모양새가 나타난 것이다. 또한 언론사들에 광고비를 지급하는 플랫폼으로서 AI 클릭베이트로 인한 시비를 차단하기 위한 목적도 있는 것으로 해석된다.
한국 뉴스룸의 사례는 신기술이 등장했을 때, 인간과 기계의 경계선을 어떻게 설정하느냐가 중요하다는 것을 보여준다. 기계가 능력 이상으로 사람의 창의적인 영역을 침해하기 시작했을 때 시너지가 발휘되지 않고, 내부는 물론 외부의 반작용이 나타날 수 있다. AI가 확산하는 지금, 인간과 기계의 영역 설정은 신중하게 이뤄져야 한다.
Centaur 체스와 Centaur 저널리즘
자동화는 인간과 기계 사이의 경계선에 끝없는 긴장 관계를 가져온다. AI는 일부 능력에서 인간을 넘어서며 기계가 인간보다 잘 할 수 있는 영역을 점차 늘려가고 있다. 인간적인 사고의 정점, 창의적인 예술의 경지로 여겨져왔던 체스와 바둑 역시 마찬가지다. 이 종목에서 인간 최고수가 AI에게 패배한 사건은 스포츠의 얘기에 국한되지 않는다. AI가 일부 영역에서 사람의 능력을 뛰어넘는 순간이 왔을 때, 우리는 어떤 생각을 갖고 어떤 방식으로 행동해야 하는지를 보여주기 때문이다.
1997년 5월 당대 체스 최고수로 꼽혔던 러시아의 Kasparov와 IBM의 체스 AI ‘딥블루’의 경기는 비상한 관심을 모았다. 시사 주간지 ‘뉴스위크’는 이 대결을 ‘The Brain’s Last Stand’라 불렀고, 가디언은 Kasparov의 임무를 “defend humankind from the inexorable advance of artificial intelligence”라고 규정했다 (Achenbach, 1997). 하지만 인간 창의성의 상징인 체스 챔피언은 AI에게 3.5-2.5로 패배했다. 이는 사람들에게 컴퓨터가 모든 면에서 인간을 압도할 날이 멀지 않았음을 보여주는 사건으로 받아들여졌다.
하지만 Kasparov를 꺾은 딥블루는 인간처럼 창의적으로 사고하는 AI는 아니었다. 체스에서 가능한 모든 수를 무차별 대입해 연산하는 brute-force 알고리즘을 활용해, 초당 2억개의 체스 위치를 평가하는 압도적인 계산력이 딥블루의 경쟁력이었다 (IBM, no date). 딥블루의 주요 장점은 학습이 아닌 메모리와 연산에 있었다. 또 체스 게임이란 좁은 작업만 수행할 수 있어, 4세짜리 어린이를 틱택토에서 이기지도 못했다 (Tegmark, 2017). 딥블루가 Kasparov를 꺾었을 때, 딥블루 설계자들은 당분간 평범한 바둑 기사조차 이길 수 있는 프로그램을 만들 수 없다고 인정하기도 했다(Lai, 2004). 딥블루 설계자 중 한 명인 머레이 캠벨(Murray Campbell)은 “It didn’t lead to the breakthroughs that allowed the [Deep Blue] AI to have a huge impact on the world”라고 했다. 그들이 실제로 지능의 원리를 발견하지 못했기 때문이다 (Thompson, 2022).
AI가 체스보다 창의적인 게임으로 평가받는 바둑의 세계 최고수를 꺾는데는 이로부터 약 20년이 더 걸렸다. 2016년 구글 딥마인드의 바둑 인공지능 ‘알파고’는 세계 최고 수준의 프로 기사였던 이세돌과의 대전에서 4대 1로 이겼다 (Mundy, 2016). 직관적이고 창조적인 플레이로 존경받던 세계 바둑 대회 18관왕이 촘촘하게 잘 짜여진 컴퓨터 프로그램에게 지는 모습을 전 세계 2억명 이상이 지켜봤다.
바둑의 수가 우주의 원자보다 많다는 고차원 게임에서 인간 최고수를 이긴 알파고는 딥블루 때처럼 수를 무차별 대입하는 방법을 쓰지 않았다. 대신 인간의 뇌가 학습하는 것을 모방한 인공 신경망 기술을 활용했다. 알파고는 과거 바둑 경기의 기보를 대량으로 학습하면서 게임하는 법을 배웠고, 다른 버전의 자신과 수없이 경쟁하면서 시행착오를 반복하고 경기력을 개선해나가는 강화 학습을 통해 실력을 향상시켰다 (Thompson, 2022). 알파고는 이세돌을 꺾은 다음 해인 2017년 세계 랭킹 1위인 중국의 커제(Ke Jie)마저 이긴 뒤 은퇴를 선언했다. 알파고는 은퇴했지만, 그 핵심 기술이었던 신경망은 세계 AI 시스템의 흐름을 바꿔놓았다. 뇌처럼 훈련, 강화를 반복하면 기계가 단순한 시행착오를 통해 엄청나게 어려운 문제를 스스로 해결할 수 있다는 것을 보여줬기 때문이다 (Google DeepMind, 2020).
기계가 특정 분야에서 인간을 능가할 수 있다는 사실이 확인됐을 때, 체스와 바둑에서의 반응은 사뭇 달랐다. 바둑의 경우, 알파고에게 패배한 지 3년만에 이세돌은 은퇴했다. 그는 연합뉴스와 인터뷰에서 “바둑에 AI가 등장하면서 내가 아무리 필사적으로 노력해 1등이 되더라도, 이길 수 없는 존재가 있다는 것을 깨달았다”고 말했다 (Yoo, 2019). 또 뉴욕타임스에는 “게임을 더 이상 즐길 수 없었다. 그래서 은퇴했다”고 했다 (Wakabayashi et al., 2024). 은퇴 이후 그는 바둑을 소재로 한 보드게임의 기획자로 전향했고, AI의 위협을 알리는 전도사 역할을 하고 있다. 뉴욕타임스에 따르면, 이세돌은 비관론자는 아니지만 AI가 인간이 중요하게 여기는 것을 바꿔놓을 수 있다는 점을 걱정한다. 그는 “사람들은 창의성, 독창성, 혁신에 경외감을 느껴왔다. 하지만 AI가 등장한 이후로 그런 것들이 많이 사라졌다”라고 했다 (Wakabayashi et al., 2024). 1년 뒤 알파고에게 패배한 커제 역시 “알파고는 바둑의 신”이라며 “스승으로 삼고싶다”고 말했다 (Kim, 2017). 바둑 최고수가 AI에게 패배하고 은퇴하면서, 바둑의 인기는 차갑게 식었다. 최근 바둑 경기 중계에선 프로 기사가 수를 두기 전에 해설자들은 AI의 추천 수를 먼저 보여준다. 또 프로 기사를 수를 두면 AI가 실시간으로 판세를 분석한다. AI가 등장한 이후 이미 답이 정해져있는 수학 문제를 푸는 것처럼 바둑은 변했다. 바둑 인구가 매년 줄어드는 가운데, 세계 최고의 바둑학과였던 한국의 명지대는 2024년 3월 바둑학과 폐과를 결정했다 (Lee, 2024). AI가 사실상 바둑계를 장악한 것이다. AI 비관론자들이 말하는 미래와 비슷하다.
반면 AI에게 인간 최고수가 패배했던 체스는 상황이 좀 다르다. Kasparov는 딥블루에게 패배한 이후 체스계를 떠나는 대신 새로운 기술을 받아들여 적응하기로 했다. AI에게 패한지 1년 뒤인 1998년 그는 인간 플레이어와 체스 컴퓨터 한 대 이상이 짝을 지어 팀으로 참가하는 ‘Advanced Chess(Centaur Chess)’ 대회를 주최했다 (Kasparov, 2023). Centaur는 그리스 신화에 나오는 상체는 사람이고, 하체는 말인 존재다. 마치 Centaur처럼 컴퓨터가 가진 비인간적인 속도와 힘을, 인간의 판단력에 활용한다는 뜻이다.
그가 기계와 손잡은지 몇 년 후, Centaur chess의 반란이 일어났다. 2005년 체스대회 사이트인 Playchess.com 이 인간 플레이어, 컴퓨터 프로그램, Centaur 등 모든 유형의 플레이어가 경쟁할 수 있도록 주최한 ‘프리스타일’ 대회에서였다. 인간과 컴퓨터로 구성된 팀은 딥블루와 같은 체스 전용 수퍼컴퓨터를 제압하는 이변을 보였다. 더욱 놀라운 것은 결승전이었다. 개인용 컴퓨터 3대를 운용하는 아마추어 체스 동호인 2명, 그리고 최첨단 컴퓨터를 보유한 세계 최고 실력의 그랜드마스터 2명이 맞붙었는데 놀랍게도 결과는 아마추어 팀의 승리였다 (Kasparov, 2010).
Moravec은 “컴퓨터가 지능 테스트나 체커 게임을 할 때 성인 수준의 성능을 발휘하도록 하는 것은 비교적 쉽지만, 상황 인식이나 이동을 할 때는 한 살짜리 아이 수준의 기술을 갖는 것조차 어렵거나 불가능하다”(1998, p. 15)고 했다. 기계가 인간의 작업을 수행할 수 있는 능력에 대한 우리의 기대에 명백한 모순이 있다는 것이다. ‘Moravec의 역설’이라고 불리는 이 설명처럼 체스에서도 컴퓨터가 잘하는 것은 인간이 약한 부분이고, 반대로 컴퓨터가 못하는 것은 인간이 잘하는 부분이다. Centaur chess는 인간과 기계가 각각 보유한 최상의 능력을 결합하면, 강력한 기계를 능가할 수 있다는 아이디어로 시작됐다. 실제로 오늘날 중급 체스 컴퓨터조차 대부분의 그랜드마스터를 압도할 수 있지만, 평균적인 플레이어가 평균적인 컴퓨터와 짝을 이루면 가장 정교한 슈퍼컴퓨터를 이길 수 있다 (Bridle, 2018).
Centaur의 경쟁력은 인간과 기계, 각각의 강점을 명확히 파악하는 것에서 시작된다. 컴퓨터는 빠르고, 효율적이며, 숫자 계산에 뛰어나다. 컴퓨터는 수백만개의 가능성을 고려해 수조개의 숫자를 처리하고 수십억개의 데이터 포인트를 스캔하는데 능숙하다(Case, 2018). 또 한정된 인간의 뇌와 달리 수백만개의 게임 데이터베이스를 보유하고 있다. 컴퓨터는 인간이 고려한 각 체스 말 움직임의 결과를 예측해, 예상 가능한 결과와 그 대응책을 알려준다. 반면 인간은 더 직관적이고, 창의적이며, 적응력이 더 뛰어나고, 가장 중요한 것은 사건의 맥락과 상황이 어떻게 돌아가고 있는지를 더 잘 이해한다는 점이다 (Cohn, 2022). 그 덕분에 인간은 수 계산에 많은 시간을 할애하는 대신 전략적인 계획에 집중할 수 있다. Kasparov(2010)는 “인간의 전략적 지침과 컴퓨터의 전술적 명민함의 결합은 압도적”이라고 했다. 그는 인간의 강점인 ‘전략적 지침’이란 모호한 말을 ‘창의성’ ‘새로운 아이디어’란 말로 부연 설명한다. Kasparov는 1998년 첫 Centaur chess 대회에서 불가리아 출신의 Veselin Topalov와의 경기를 회고하며, “우리 둘 다 동일한 데이터베이스에 동등하게 접근할 수 있었기 때문에, 어느 순간 새로운 아이디어를 도출하는 게 유리했다. 인간의 창의성은 이런 조건에서 더욱 중요했다“고 말했다(Kasparov, 2010). Centaur는 게임의 키를 다시 ‘창의성’으로 가져왔다. 고급 체스는 인간이 컴퓨터와 경쟁하기보다는 협력하는 방법을 강조하며, 인간의 창의성을 극대화했다.
이같은 Centaur의 특징은 다른 분야에도 얼마든지 적용 가능하다. 세계 최대 만화 플랫폼인 네이버웹툰은 생성형 AI에게 그림 그리기와 채색, 편집 등을 맡기는 도구인 ‘웹툰 AI 페인터’를 개발했다 (Yoon, 2024). 매주 작품을 발표해야 하기 때문에 과로가 일상화된 노동 집약적 웹툰 분야에서 반복 작업은 AI에게 맡기고, 만화가는 스토리텔링에만 몰두할 수 있는 환경을 제공하는 것이다. 또 그림 솜씨가 없는 초보자라도 누구나 웹툰이라는 장르로 자신의 스토리를 전달할 수 있도록 경계를 낮춘 효과도 있다. 정밀한 계산과 적시 실행이 중요한 군사 분야에서도 활용 가능하다. 무인 로봇, AI 기반의 무기가 확산하는 가운데 ‘Centaur Army’(Freedberg, 2015), ‘Centaur warfighting’(Rosenberg et al., 2016)처럼 Centaur의 개념을 이미 차용하고 있다.
Centaur chess의 운용 방식을 파고들다보면 결국 ‘질문’과 ‘답’으로 귀결된다. 최첨단 체스 수퍼컴퓨터는 수많은 계산을 거쳐서 나온 최적의 수를 지체없이 실행에 옮긴다. 다만 인간과 기계가 한 팀인 경우엔, 인간이 최종 수를 놓는 실행 버튼을 쥐고 있다. 인간은 서너 가지 가능한 수를 선택하고 이를 기반으로 다양한 체스 프로그램에서 일련의 조합을 테스트한다. 그리고 이 중 하나의 강력한 움직임을 발견하면 이것이 맞는지 여러 프로그램을 통해 또 다시 비교한 뒤 최종적으로 수를 둔다 (Sundin, 2023). 인간이 ‘질문’을 던지면 기계가 ‘답’을 주고, 이걸 바탕으로 다시 새로운 ‘질문’을 던지고 또 다시 ‘답’을 받는 과정의 연속이다. 기계는 인간이 준 질문에 대해서만 답을 하기 때문에, 기계가 움직이는 원리를 잘 알고 좋은 질문을 하는 것이 중요하다.
그런 점에서 2005년 프리스타일 체스 대회에서, 그랜드마스터 2명을 꺾은 아마추어 동호인 2인은 비록 체스 실력에선 부족했지만 컴퓨터와 체스 프로그램을 다루는 방법에선 더 전문가였다고 할 수 있다. 그들은 승리 후에, “우리의 강점은 광범위한 오프닝 준비, 사용된 각 체스 엔진에 대한 지식과 특정 유형의 포지션을 평가하는 방법, 데이터베이스 지식이었다“고 했다 (Sundin, 2023). Kasparov(2010)는 “ 컴퓨터를 조작하고 코칭해 포지션을 매우 깊이 들여다보도록 하는 그들의 기술 덕분에 최상의 체스 실력을 보유한 그랜드마스터, 뛰어난 성능의 컴퓨터를 보유한 다른 참가자들에 효과적으로 대응할 수 있었다”며 “약한 인간 + 기계 + 더 나은 프로세스의 조합은 강한 컴퓨터 단독보다 우월했고, 더 놀라운 것은 강한 인간 + 기계 + 열등한 프로세스보다 우월했다는 사실”이라고 말했다. Kasparov의 통찰은 ‘더 나은 프로세스’가 약한 인간과 약한 컴퓨터의 조합을 최고의 성능으로 끌어올릴 수 있다는 것이다. 그 핵심이 바로 컴퓨터의 규칙을 제대로 이해하는 인간과 제대로 된 질문 혹은 명령이다. 승리한 아마추어 2인은 규칙에 대한 지식을 사용해 올바른 방식으로 올바른 질문을 해, 전문가의 역할을 수행했다 (Levine et al., 2022). 즉 해당 분야의 최고수가 아닌 평범한 사람이라도 AI를 잘만 운용하면 세계 최고수를 꺾을 수 있을만큼 대단한 능력을 얻을 수 있다는 가능성을 제공한다.
이 논문은 Centaur의 잠재력이 가장 많이 힘을 발휘할 수 있고, 또 해야 하는 분야 중 하나는 저널리즘이라고 주장한다. 이를 통해 저널리스트들이 잃어버린 창의성을 되찾고, 양질의 저널리즘을 추구하는 ‘Centaur Journalism’이 널리 확산될 필요가 있다. 현재 많은 뉴스룸은 생존의 위기에 내몰려 있다. 뉴스 조직은 광고를 기반으로 대중들에게 원가 이하의 뉴스를 제공해왔지만 (Picard, 2006), 유튜브 소셜미디어와 같은 다양한 미디어가 대중들의 시간을 더 많이 차지하고 뉴스 소비가 급격히 감소하면서 이 같은 수익 기반은 흔들리고 있다. 광고 수익을 확보하기 위해 더 많은 지면, 더 많은 뉴스 콘텐츠 생산이 필요해졌고 저널리스트의 생산 역량은 악화되고 있다 (Kim, 2024).
이런 와중에 AI는 뉴스룸에서 계속 인간의 업무를 넘보고 있다. 챗GPT의 제작사 오픈AI는 지난해 오픈리서치, 미 펜실베이니아대와 공동으로 진행한 각 직업군의 AI 노출도 조사에서 기자를 회계사, 수학자, 작가 등과 함께 노출도가 100%인 직종으로 꼽기도 했다 (Eloundou et al., 2023). 기자의 업무 100%가 생성형 AI의 영향권에 노출돼 있고, 이 업무들을 AI에 맡기면 상당한 개선 효과가 있을 것이라는 뜻이다. 이것이 꼭 완전 자동화가 가능하다는 뜻은 아니라고 연구진은 단서를 달았지만, 생성형 AI가 저널리스트 업무를 충분히 잘할 수 있다는 자신감을 내비친 것이다.
뉴스룸은 무엇보다 ‘좋은 질문’이 가장 중요한 곳이다. 캐나다 토론토대의 경제학자인 Joshua Gans는 “기자의 가장 큰 가치는 좋은 질문을 하고 답변의 질을 판단하는 것이지, 결과를 쓰는 것이 아니다”고 했다 (Ip, 2023). 이런 감각은 체스판이나 바둑판에서처럼, 인간 저널리스트의 창의성 그리고 직감과 직결된다. 기자들은 심층 인터뷰를 진행하는 동안 상대의 신체 언어를 읽어 인터뷰 속도를 결정하고 응답에 따라 질문과 접근 방식을 조정한다 (Shigenobu, 2023). 10년 이상 세계 체스 챔피언 자리를 지켜온 Kasparov(2017)가 “저는 상대방의 몸짓과 눈빛을 보면서, 그들이 둔 체스의 수와 감정 상태를 분석해왔다”고 말한 것과 비슷하다. 정교한 AI는 상대의 표정과 감정을 읽을 수 있도록 프로그래밍될 수 있겠지만, 인간의 직감은 복제하기 어렵다. 또 저널리스트와 달리 AI는 법정에 들어가거나 감옥에 있는 피고인을 인터뷰하거나, 학교 총격 사건으로 사망한 희생자의 부모를 만나거나, 고발자와 신뢰를 쌓거나, 전쟁의 최전선에 용감하게 나설 수 없다 (Radsch, 2024). 여전히 AI가 할 수 없는 부분이 크다.
저널리스트는 이세돌처럼 뉴스룸에서 물러나거나, 커제처럼 AI를 스승으로 삼아선 안된다. 뉴스룸에서 AI와 한 편이 되어 다시 전장에 나가는 Kasparov가 되어야 한다. 그는 직감과 창의력에선 딥블루보다 앞섰지만, 무차별적으로 초당 2억개의 수를 계산하는 능력에선 뒤졌다. 그는 딥블루에게 패배한 뒤, Ted 강연에 나와 이렇게 말했다. “딥블루와의 전투 이후 패배의 상처를 핥으면서, 저는 많은 영감을 얻었습니다. 러시아 속담에 ‘그들을 이길 수 없다면, 그들과 함께하라‘는 말이 있죠.” (Kasparov, 2017).
뉴스룸에서 Centaur team을 이룬다면, 어떤 업무들을 기계에게 나눠주고 인간은 어떤 업무에 집중해야 할까. AP(2024)가 글로벌 뉴스 업계 종사자 186명을 대상으로 조사한 ‘생성형 AI 리포트’에는, 응답자들이 저널리즘 활동에서 지루함과 따분함을 크게 느낀다고 답한 항목들이 나와있다. 1점(전혀 그렇지 않다)부터 4점(매우 그렇다)까지 점수를 매겼는데, 가장 점수가 높은 것은 정보처리(평점 3.1)였다. 조직 외부와의 커뮤니케이션(3.0), 데이터 혹은 정보 분석(2.9), 데이터 문서화 혹은 기록(2.8) 같은 업무 역시 지루하다고 답했다. 반면 창의적인 생각(1.6), 정보의 의미 해석(1.7), 의사 결정 및 문제 해결(1.7)은 상대적으로 지루한 정도가 낮았다. AP는 AI가 특정 업무에 도움을 줄 수 있다면 작업자의 만족도뿐 아니라 저널리즘 활동으로 인한 지루함을 완화하는데 도움이 될 것으로 봤다.
Centaur chess에서 인간 플레이어가 컴퓨터에게 수 계산을 맡기고 전략에 집중할 수 있었듯이, Centaur Journalism은 기자가 컴퓨터에게 대규모 데이터 분석이나 모니터링 같은 업무를 맡기고 인간은 보다 창의적인 활동에 매진해 경쟁력을 높이도록 하는 것이다. 우리는 기계와 승패를 가리는 게임을 하는 것이 아니다, 어떻게 하면 기계를 활용해 우리의 목적지에 빨리 갈 수 있느냐가 중요할 뿐이다. 관건은 저널리스트가 AI의 구조와 역량을 제대로 파악해서 인간에게 최적의 파트너가 될 수 있도록 적합한 질문 혹은 명령을 내리는 일이다. AI로부터 좋은 답을 이끌어 낼 수 있도록 ‘Prompt’라 불리는 명령을 잘 만들어내는 AI Prompt engineer가 고연봉 직종으로 주목받고 있는 것도 이 때문이다 (Kelly, 2024). 뉴스룸에서도 AI의 작동 원리를 잘 이해해, 기자와 AI간 효과적인 커뮤니케이션을 할 수 있도록 upskilling이 필요한 시점이다. Rafner et al.(2021)은 “인간의 맥락과 필요성을 전면에 내세우고, 근로자의 재교육 및 업스킬링을 위해 인간과 알고리즘간의 새로운 형태의 상호작용과 시너지를 탐구”해야 한다고 했다.
이미 지역 소규모 뉴스룸에서는 AI를 통해 환경적 열세를 극복하려는 시도가 벌어지고 있다. 미국에서 ‘Local News Now’라는 지역 매체 그룹을 운영하는 Scott Brodbeck은 총 세 개의 지역 매체에 7명의 기자를 두고 있다(Fu, 2023). 한 매체당 두 명꼴의 영세한 뉴스룸이지만 그는 각 뉴스룸에 AI를 투입해 인간과 AI가 협업하는 시스템을 만들었다. AI는 기사의 오타를 잡아내고, 보도자료를 요약하고, 뉴스 기사의 톤을 긍정적 혹은 부정적, 중립적으로 분석하고, 전날 기사를 요약해서 다음날 아침용 뉴스레터까지 생성한다. Brodbeck은 “사이트에 두 명의 기자만 일하면서 기사도 쓰고 이런 추가 작업까지 다 하라고하면 일이 쌓일 수밖에 없다”면서 “기자들이 실제(actual) 저널리즘에 집중할 수 있도록, AI가 잡다한 일들을 도맡아하면서 이전엔 불가능했던 일을 할 수 있는 가능성이 열렸다”고 했다.
Kasparov(2023)는 AI가 당신의 일자리를 빼앗을까봐 두려워하지 말라고 말한다. 대신 AI를 사용하는 인간을 훨씬 더 걱정해야 한다고 말한다. 왜냐하면 그들이 당신의 일자리를 빼앗을 수 있기 때문이다. “아무리 운동을 해도 자전거를 탄 인간을 따라잡을 수 없는 것”과 마찬가지라는 것이다. 뉴스룸에서도 AI가 저널리스트를 대체하는 것이 아니라, AI를 활용할 줄 아는 저널리스트가 그렇지 않은 저널리스트를 대체하는 일이 벌어질 가능성이 점점 더 높아지고 있다. 이것은 비단 뉴스룸만의 일이 아닐 수 있다.
AI와 함께 일하는 방법
고대 중국의 전략가이자 명장이었던 손자는 그의 책 ‘손자병법’에서 이같이 말했다. “If you know the enemy and know yourself, you need not fear the result of a hundred battles.” (Tzu, 1963, p.87). 새로운 자동화의 흐름인 AI도 각 산업계에서 ‘war’란 표현이 공공연히 쓰일만큼 파괴적인 변화를 가져오고 있다. “Artists Are Losing the War Against AI(The Atlantic, 2.10.2023)” “Media and tech war over generative AI reaches new level(FT, 28.12.2023)” “The AI Search War Has Begun(The Atlantic, 30.6.2024)” 와 같은 제목의 기사들이 연일 보도된다. AI와의 전쟁에서 우리가 가장 먼저 해야 할 일은 손자의 가르침처럼 인간과 AI에 대해 잘 이해하는 것이다. 이 장에서는 인간이 AI와 Centaur가 되기 위해 고려해야 할 세 가지 요소를 다룬다.
첫번째는 인간과 AI의 장단점을 명확히 파악해야 한다는 것이다. AI와 반인반마가 되려면, 인간과 말의 경계를 어디로 정하느냐가 최상의 결과를 위한 중요한 요소가 되기 때문이다. AI의 능력을 논할 때 자주 인용됐던 것은 ‘Moravec의 역설’이다. Moravec은 그의 책 ‘Mind Children’에서 컴퓨터가 지능 테스트나 체스 게임처럼 사람이 어려워하는 문제는 쉽게 풀지만, 지각 능력 혹은 걷기처럼 사람에게 쉬운 분야는 어려워하는 모순이 있다고 했다 (1988). 이 역설은 진화론에 근거를 두고 있다. 수백만년의 진화를 통해 습득한 얼굴 인식, 사물 조작, 언어 사용과 같은 기술은 우리 뇌에 깊이 각인돼있어 인간에겐 쉽고 자동화된 것처럼 보이지만, 복잡한 수학문제 풀기나 체스 두기처럼 최근에 개발한 기술은 상당한 의식적인 노력이 필요하다는 것이다 (Hernández, 2024). 이는 인간에겐 자연스러운 감각, 운동 능력이나 암묵지 지식으로 여겨지는 직관, 창의적인 분야에선 아직 기계가 따라오기 어렵다는 경계선 역할을 해왔다
하지만 한 살 어린아이처럼 걷는 것조차 힘들었던 기계는 최근 급격히 발전을 거듭하면서 이같은역설을 무력화하는 것처럼 보인다. 보스턴다이내믹스의 1.5m 짜리 로봇 Atlas는 걷기, 뛰기는 물론 외다리 걷기, 백덤블링 같은 고난도 동작을 깔끔하게 구현해낸다 (Boston Dynamics, 2021). 유튜브에 올라오는 이 로봇의 활약상은 수백만회에서 많게는 1억회 이상의 조회수를 기록하며 인간들의 호기심과 탄성, 두려움을 자아내고 있다. 인간의 고상한 고유 영역으로 여겨졌던 문학, 창의적 글쓰기도 마찬가지다. 챗GPT 등장 이후, 컴퓨터의 글쓰기 능력이 무시하기 어려운 수준이라는 전문가들의 증언도 잇따르고 있다. 생성형 AI로부터 받은 소설 초안의 비평이 업계 최고 전문가보다 낫다는 베스트셀러 작가의 고백부터, 글쓰기에 챗GPT를 활용하지 않으면 실수라고 주장하는 잔뼈굵은 선임 기자들이 있다 (Matthews, 2023; Thomas, 2024).
기술 발전에 민감하게 반응해온 뉴스룸에서도 AI의 기술 진화를 염두에 둔 업무 재분배가 지속적으로 진행되고 있다. AP는 2024년 다양한 국가의 뉴스룸 종사자 186명을 대상으로 한 조사에서, 다양한 저널리즘 활동을 제시하며 AI로부터 얼마나 도움을 받고 싶은지 질문했다 (Diakopoulos et al., 2024). 총 11개 항목으로, 답변이 많은 순서대로 나열하면 다음과 같다. ①Analyzing Data or Information ②Getting Information ③Thinking Creatively ④Processing Information ⑤Organizing, Planning, and Prioritizing Work ⑥Interpreting the Meaning of Information for Others ⑦Making Decisions and Solving Problems ⑧Documenting/Recording Information ⑨Communicating with People Outside the Organization ⑩Working with Computers ⑪Communicating with Supervisors, Peers, or Subordinates. 종합하면 저널리스트들은 기계가 우위에 있는 데이터와 정보를 분석, 처리하는 영역에서 AI의 도움을 원했고 의사 결정, 사람들과의 대면 업무는 스스로 하길 선호했다.
저널리스트들의 선호가 반영하듯 광범위한 데이터를 빠른 속도로 분석, 처리하는 역량은 AI가 사람보다 더 능숙하다. 이미 많은 뉴스룸에서 이 같은 특성을 반영해 저널리스트가 기존에 해왔던 데이터 중심의 지루하고 반복적인 작업을 AI로 대체하고 있다. AI가 금융, 스포츠와 같은 분야의 속보를 작성한다거나, 소셜미디어의 수많은 게시물에서 기사 소재를 찾아 알람을 주거나, 저널리스트가 작성한 기사의 오탈자를 찾아내고, 이를 다른 플랫폼용 혹은 다른 언어로 재작성, 번역하는 일들이다. Guardian은 생성형 AI 사용지침에 “예를 들어 저널리스트가 대규모 데이터 세트를 조사할 때나, 기사의 수정 및 제안, 마케팅 캠페인에 대한 아이디어를 내거나, 시간이 오래 걸리는 업무 프로세스의 관료주의적 요소를 줄이는 식으로 업무의 질을 향상시킬 수 있다”고 구체적으로 명시했다 (Viner et al., 2023).
로이터가 개발한 ‘News Tracer’도 AI 활용의 좋은 예다. News Tracer는 기계학습을 바탕으로 트위터에 매일 올라오는 7억여개의 트윗 가운데 뉴스가 될만한 것을 자동으로 발굴해 뉴스 가치 등급을 생성한다 (Reuters, 2017). 이어 해당 트위터 프로필이 검증된 계정인지, 누구를 팔로우하고, 팔로워는 누구인지, 트윗에 링크나 이미지가 포함돼 있는지 등 저널리스트가 실제로 사실 확인을 위해 하는 방법들을 똑같이 적용한 뒤에 저널리스트에게 재차 확인을 맡긴다. 로이터는 이 프로그램을 통해 미 캘리포니아주에서 발생한 총격 사건, 에콰도르의 지진 사망사건, 브뤼셀의 폭탄 테러 등을 세계 다른 언론사보다 최소 8~60분 먼저 확인해 정보를 더 오래 수집하고 검증할 수 있는 시간을 확보했다고 밝혔다. AP가 2023년 ‘지역 뉴스 AI 이니셔티브’를 통해 지역 뉴스룸과 함께 개발해 무료 공개한 AI도 이런 특징을 반영하고 있다. 뉴스룸 시스템에 경찰 사건 기록을 자동으로 정리하고, TV 뉴스용 영상 필사본과 요약을 생성하고, 기상청 알림을 즉시 기사화하고, 시의회 회의를 기록하고 특정 키워드를 식별해 기자들에게 알람을 주는 앱 등이 포함됐다 (Meir, 2023).
인간 저널리스트가 여전히 AI보다 잘 할 수 있다고 믿는 분야는 각 언론사들이 밝힌 AI 가이드라인에 드러나 있다. Guardian은 “생성형 AI의 사용은 가디언이 더 가치있고 지킬만한 가치가 있는 것에 집중하기 위한 것”이라며 “시간과 노력을 들여 사실을 신중하게 밝히고, 권력자에게 책임을 묻고, 아이디어와 주장을 따져보는 진지한 보도”라고 언급했다 (Viner, 2023). 파이낸셜타임스는 사용 원칙을 밝히면서 “생성형 AI는 생산성을 높이고 기자와 편집자가 오리지널 콘텐츠를 생성하고 보도하는 데 집중할 수 있는 시간을 확보할 수 있는 잠재력이 있다”고 밝혔다 (Khalaf, 2023). AP는 ‘생성형 AI 사용 기준’에서 “정확성, 공정성, 속도는 AP뉴스의 핵심 가치이며, 인공지능을 주의깊게 활용하면 이런 가치를 실현하고 시간이 지남에 따라 업무 방식을 개선할 수 있다고 믿는다”면서 “AI가 어떤 식으로든 저널리스트를 대체한다고 보지 않는다”고 밝혔다 (Barrett, 2023). 블룸버그는 최근 AI 보고서에서 “최근의 인공지능 분야 발전이 아무리 놀랍다 해도, 이러한 모델은 아직 계획하고 추론하며 공정하고 균형 잡힌 보도를 보장하고, 적은 양의 증거에서 더 큰 이야기의 조짐을 발견하거나, 알려지지 않은 중요한 정보를 밝혀내기 위해 인터뷰에서 어려운 질문을 던지는 인간 저널리스트의 능력을 보여주지는 못한다”고 밝혔다(Quinonez et al., 2024).
AI와 Centaur가 되기위해 두번째로 고려해야 할 사항은 AI가 어떻게 움직일지 예측이 쉽지 않은 ‘블랙박스’라는 점이다. 대부분 의도한대로 잘 달리지만 가끔은 어이없는 실수를 해 치명적인 결과를 가져올 수 있다.
2016년 알파고 이후에 등장한 AI의 대부분은 인공 신경망 ‘딥러닝’ 시스템을 활용하기 때문에, 수백억~수천억개의 다양한 매개변수가 상호작용하는 복잡한 구조 속에서 특정 변수가 출력 결과에 어떤 영향을 미치는지 규명하는 것은 매우 어렵다 (Gu, 2024). AI가 내린 결론이 어떻게 나온 것인지 프로그램 설계자도 설명하기가 어렵다는 뜻이다. 2016년 알파고와 이세돌의 대국에서 이 같은 블랙박스의 특징은 대중들의 주목을 받았다. 두번째 게임에서 알파고가 뒀던, 수세기 동안 이어져온 전통적 지혜를 뒤집는 것으로 평가받는 37수 때문이었다 (Google DeepMind, 2020). 인간 바둑에서 좀처럼 나오지 않는 독특한 수였고, 당시 TV 중계를 하던 프로 기사들도 “연구생이 뒀다면 사범에게 혼날만한 수” “프로들이 ‘이렇게 두면 안 된다’고 생각하는 개념”이라고 해설했다 (Kim, 2016). 알파고 개발사인 구글 딥마인드도 “이 수의 사용 가능성은 1만분의 1”이라고 했다. 하지만 이 수는 후반으로 갈수록 존재감이 커졌고, 두번째 게임을 알파고의 승리로 이끈 결정타가 됐다. 모두가 이 수의 배경을 궁금해했지만 알파고 개발진조차도 알파고의 블랙박스 특성 때문에 왜 그 수가 나왔는지 설명하지 못했다.
Flusser는 그의 저서 ‘Towards a Philosophy of Photography’에서 ‘Black Box’를 다음과 같이 설명한다. “의미는 한쪽(입력)에서 복합체(the complex)로 유입돼 다른 쪽(출력)으로 흘러나오는 것처럼 보이는데, 이 과정에서 복합체 내에서 무슨 일이 일어나고 있는지 전혀 알 수 없다. 완전한 ‘블랙박스’와 같다.” (2006, p.16).
이같은 특성은 특히 뉴스룸에는 위험할 수 있다. 정확성과 신뢰도, 공정성, 투명성을 핵심으로 삼는 저널리즘의 가치 (Khalaf, 2023)와 정면으로 위배되기 때문이다. 한국의 신문사인 한국일보는 AI가 쓴 기사를 기자 경력 20년의 에디터들이 직접 평가하는 실험을 했는데, 에디터들은 가장 큰 고충은 “왜 이렇게 썼는지 확인할 방법이 없다”는 것이었다(Hankookilbo, 2024). 일반적으로는 기사를 쓴 기자에게 꼼꼼히 물어가며 확인할 수 있지만 AI에겐 그럴 수 없다는 것이다. 사실을 조작해 그럴듯한 답변을 만들어내는 이른바 ‘hallucinations’ 현상도 주요 원인이다. 많은 뉴스룸에서는 이미 AI의 블랙박스적 한계를 인식하고 이를 경계하고 있다. AP는 “생성형 AI 도구의 모든 결과물은 검증되지 않은 자료로 취급돼야 한다”고 밝혔고, Financial Times는 “오늘날 시중에 나와 있는 인공지능 모델은 매우 명료하고 그럴듯해 보이지만, 궁극적으로 예측 엔진이며 과거로부터 학습하고 있다. 사실을 조작할 수 있다”고 말한다 (Barrett, 2023; Khalaf, 2023). Guardian도 “많은 생성형 AI 모델은 제작자 모르게 혹은 동의 없이 수집된 자료로 학습된 불투명한 시스템”이라는 점을 인식한다 (Viner et al., 2023).
생성형 AI의 등장으로 논란이 분분한 글쓰기 영역도 이 논의와 연결돼 있다. 한국 뉴스룸을 비롯해 일부 뉴스룸에서는 선제적으로 AI에게 기사 쓰기를 맡기는 실험을 하고있고, 일부는 여전히 사람의 영역으로 선을 긋고 있다.
AI가 적용된 뉴스룸에서는 이미 ‘정확성’과 ‘신뢰도’를 훼손하는 크고작은 문제점이 발생하고 있다. 미국의 테크 뉴스 사이트인 CNET은 AI가 생성한 기사를 사람이 쓴 것처럼 게시했다가, 기사 오류가 발견돼 신뢰에 큰 타격을 받았다(Farhi, 2023). 예를 들면, 자동 생성된 기사는 “연 3% 복리 이자를 받는 저축 계좌에 1만달러를 예치하면 첫해 말에 1만300달러를 벌 수(earn) 있다”고 보도했다. 그럴 듯해보이지만 실제 벌 수 있는 돈은 1만300달러가 아닌 300달러다. 또 CD로 알려진 예금증서를 설명하면서 “1년 만기 예금증서는 최초 예치금이 만기된 후에 한번만 복리로 이자가 발생한다”고 보도했지만, 이것도 거짓이었다. Chase Bank는 매일 복리, Capital One은 매월 복리로 계산한다. CNET은 AI가 쓴 기사들에 마치 사람이 쓴 것처럼 오해할 수 있는 ‘CNET Money Staff’라는 바이라인을 달기도 했다. 이같은 오류를 발견한 기술 매체 Futurism은 “매끄럽고 진실되게 들리는 산문을 뱉어내지만, 사실과 허구를 구별하는데는 엄청난 어려움을 느끼는 현 세대 AI 텍스트 생성기의 핵심적인 문제점을 보여준다”고 했다(Christian, 2023). CNET은 “게시하기 전 주제별 전문 지식을 갖춘 편집자가 검토, 사실 확인 및 편집을 한다”고 밝혔지만, 이 같은 오류를 사전에 걸러내지 못했다(Guglielmo, 2023). 비영리 미디어 연구기관인 Poynter는 “이러한 환각은 사회를 위험에 빠뜨릴 뿐만 아니라 사실의 신성함을 수호해야 하는 저널리즘의 직업을 위태롭게 한다“며 “따라서 인공지능의 본질을 이해하지 못한 채 이를 수용하면 언론에 대한 불신이 더욱 깊어질 수 있다”고 경고했다 (Bugeja, 2023).
생성형 AI 글쓰기 실험에 나선 언론사들은 최종 검수를 인간 저널리스트가 맡기 때문에 안전하다고 말하지만, CNET의 사례는 이것이 제대로 작동하기 어렵다는 점을 잘 보여준다. 그럴듯한 결과물을 만들어내는 AI 앞에서 인간 감독자의 집중력은 흐트러지기 쉽다. Schultz (2024)는 자율주행차에 앉은 운전자가 빠르게 집중력을 잃는 경향이 있는 것처럼, 뉴스룸에서 AI 기사를 검수하는 역할을 맡은 편집자에게도 동일한 역학이 작용할 수 있다고 말한다. 취재 현장을 누비며 사실을 수집하고 노련한 글쓰기를 해야 할 중견 저널리스트들이 ‘블랙박스’ AI가 생산한 기사의 책임을 대신 지고 ‘출고 버튼’을 누르는 수동적인 관리자로 전락해버리고 있다는 점도 안타까운 대목이다.
Adam Rogers(2019)는 “체스 또는 바둑과 같은 무해한 게임에서는 투명성보다 우수한 기능을 선택하는 것이 합리적”이라면서도 “하지만 생명을 위협하는, 오랜 시간 결과가 지속되는 시스템에 적용하는 것은 어떻겠느냐”고 묻는다. 이어 AI의 혁신이 지속될수록 설명 가능한(Explainable) AI를 우선시해야 한다고 강조한다. 이는 비단 뉴스룸에만 해당되는 문제가 아니다. AI가 병원에서 내린 진단 결과, AI가 법원에서 내린 판결이 설명 불가능하다면 이로 인해 빚어질 사회적 혼란과 갈등은 매우 클 것이다.
일부 전문가들은 ‘블랙박스’ 생성형 AI가 세상을 있는 그대로가 아니라 스스로 옳다고 생각하는 모습으로 묘사할 수 있다는 점을 우려한다 (Mir, 2024). 구글의 AI 챗봇 Gemini가 임의로 ‘다양성’을 반영하기 위해 여성 교황, 흑인 바이킹, 여성 NHL 선수 등 실존하지 않는 인물의 이미지를 결과물로 표현해 논란에 휩싸인 것이 대표적이다. 이런 결과물을 위해 구글의 개발자들은 AI에게 보상을 제공하면서 다양성을 강화했기 때문에 이는 오류가 아니라 하나의 기능이고, 생성형 AI는 이를 통해 현실을 반영하는 대신 도덕성을 투사하며 인간적 관행에 더 많은 통제력을 행사하고 있다는 것이다 (Barrabi, 2024). AI의 알고리즘을 설계하고 이 도구를 전 세계에 배포하는 실리콘밸리 테크 기업들의 의도는 조용히 프로그램에 반영될 가능성이 있고, 일반 이용자들은 블랙박스가 만들어낸 결과물에 담긴 미묘한 의도를 확인하는 것조차 쉽지 않다. Warzel(2024)은 ‘AI가 세상을 먹어치운다’라는 기술 옹호론자들의 수사는 긍정적 의미를 넘어 “위협적이며, 빠르고 강력한 식민지화”의 모습으로도 해석할 수 있다고 지적한다.
또 하나는 훈련 데이터의 문제다. 현재의 생성형 AI는 인간 저널리스트가 생산한 기사를 비롯한 다양한 오리지널 콘텐츠를 학습해 이용자의 의도에 맞는 답변을 생성한다. Shumailov, I. et al. (2024)은 생성형 AI가 인간이 생산한 콘텐츠가 아닌, 이전 모델의 AI가 생성한 데이터를 무차별적으로 훈련했을 때 ‘모델 붕괴(Model collapse)’ 현상이 발생할 수 있음을 증명한 연구를 Nature지에 게재했다. 점점 AI가 생산하는 콘텐츠가 늘어나는 가운데, AI 모델이 장기간에 걸쳐 기계의 결과물을 과도하게 학습할수록 현실을 잘못 인식하게 되고 모델의 성능이 급격히 떨어진다는 것이다. AI가 훈련 데이터에서 덜 흔한 요소를 간과하고 세상의 복잡성과 뉘앙스를 반영하지 못하게 되는데, 이는 소수 집단의 관점이 덜 표현되거나 잠재적으로 지워질 위험을 나타낸다 (Schultz, 2024).
인간이 생산한 자료를 학습하는 것 역시 한계가 있다. AI가 주요하게 학습하는 훈련 데이터 중 하나인 기사들은 저널리스트 개개인이 뉴스가 될만한 자료를 수집해 때로는 자신도 모르는 사이 사회적 가치, 언론사의 가치, 개인의 가치를 반영해서 내놓은 결과물이다. 이것은 차곡차곡 데이터베이스로 쌓이며 확대 재생산을 위한 준비를 마친다. AI는 과거의 데이터베이스에서 배우기 때문에 이미 사회에 존재하는 문제점을 그대로 배우고 반영한다. AI의 결과물은 이미 우리 사회, 저널리즘에 존재하는 일종의 프로그램을 들여다보는 효과를 가져온다. 이는 문제 해결을 위한 계기인 동시에 기존의 문제가 또 다시 확대 재생산될 수 있는 순간이기도 하다. 프로그램 때문이든, 훈련 데이터 때문이든 AI라는 블랙박스를 거친 현실 인식은 실제 현실과 동떨어질 가능성이 있고, 이는 사람들의 현실 인식에 큰 영향을 미치게 된다.
마지막은 파트너인 AI에게 지나치게 의존할 경우, 인간 스스로 한계에 갇힐 수 있다는 점이다. 뉴스는 많은 사람들에게 ‘세상을 바라보는 창’으로 작용한다. AI를 활용하는 뉴스룸은 AI라는 도구가 주는 가능성에 집중해 엄청난 자유를 누리는 것으로 오해할 수 있지만, 자칫 AI 프로그램이 허락한 창문을 통해서만 세상을 표현하게 되는 한계에 부딪힐 수 있다. 이는 Flusser가 그의 저서 ‘Towards a philosophy of photography“에서 제시한 카메라와 프로그램의 개념에 비유할 수 있다. “카메라는 사진을 찍도록 프로그램되어 있으며, 모든 사진은 카메라의 프로그램에 포함된 가능성 중 하나를 실현한 것이다.” (Flusser, 2006, p.26). 또 그는 “촬영할 ‘대상‘을 선택하는 것은 자유롭지만, 한편으로 그것은 카메라 프로그램에 포함된 기능 중 하나여야만 한다”고 했다 (2006, p. 36). 카메라와 그 이미지 생성을 돕는 프로그램은 한 사회의 문화적 구성물이기 때문에, 사진이란 결과물에는 사진가의 의도도 담겨있지만 해당 프로그램 제작자의 의도에도 상당 부분 의존하고 있고 또 이에 따른 제약이 있음을 인정해야 한다는 것이다.
Flusser는 프로그램을 어떻게 이용하는지에 따라 스냅샷 찍는 사람(snapshot-taker)과 사진가(photographer)를 구분한다. “사진가들은 카메라에서 아직 발견되지 않은 가능성을 찾으려고 노력한다: 그들은 카메라를 조작하고, 이리저리 돌려보고, 안을 들여다보고, 이를 통해 사물을 바라본다. 그들이 카메라를 통해 세상을 바라본다면, 그것은 세상이 사진가들의 관심을 끌어서가 아니라 이들이 정보를 생산하고 사진 프로그램을 평가하는 새로운 가능성을 추구하기 때문이다.” (Flusser, 2006, p.26). Photographer는 카메라 속 프로그램에 의문을 제기하고, 새로운 것을 찾고, 탐구하고, 조사하고, 경계를 넓히기 위해 노력하는 사람들이다. 단순히 카메라 프로그램에 의존해 스냅샷을 찍는 사람과는 다른 존재다.
뉴스룸에서 저널리스트의 활동도 마찬가지다. AI 도구라는 프로그램이 주어졌을 때, ‘귀찮은 일이 자동화됐다’는 점에 만족하고 AI에 의존하면 프로그램의 한계에 갇힐 수 있다. AI 도구를 통해 원하는 주제를 취재하려다가도 프로그램의 기능에 포함돼있지 않으면 포기하는 경우다. 반면 어떤 저널리스트들은 새로운 도구의 가능성에 주목해 프로그램 이상의 더 창의적인 활용법을 고민한다. 프로그램의 한계에 부딪혀도 이에 굴하지 않고 새로운 가능성을 찾아내 결국 목표한 바를 이루고마는 사람이다. 전자가 snapshot-taker라면 후자는 photographer라고 할 수 있다. Flusser는 스냅샷으로 찍힌 이미지는 “중복(redundant)”이며, “새로운 정보를 전달하지 않으며, 불필요한 정보” (1983, p. 26)라고 말한다. 뉴스룸에서도 각기 다른 가치관과 열정을 가진 저널리스트들을 통해, 수많은 중복 그리고 오리지널 콘텐츠가 생산되고 있다.
사상 최초로 AI를 사용해 2024년 퓰리처상을 받은 두 편의 보도에서 ‘뉴스룸의 photographer’를찾아볼 수 있다. 이들은 AI 자동화에 만족하지 않고 새롭고, 실험적인 방법으로 AI라는 도구를 쥐고 흔들고 찔러보며 세계가 주목하는 보도를 만들어냈다. 미국 시카고 경찰의 흑인 여성 실종 사건 부실 수사를 폭로하는 7부작 시리즈 ‘Missing in Chicago’로 퓰리처상 지역 보도 부문을 수상한 비영리 미디어 단체인 City Bureau와 Invisible Institute의 사례가 대표적이다(The Pulitzer Prizes, 2024). 소규모 뉴스룸의 저널리스트들은 2011년부터 2015년까지의 시카고 경찰 부정 행위 파일 수천건에 주목했다. 시간과 인력의 부족함을 극복하기 위해 Judy라는 머신러닝 도구를 직접 구축했지만, 기자 1명과 데이터 담당자 1명이 훈련 데이터를 만드는 것은 역부족이었다. 하지만 이들은 시카고 커뮤니티의 자원봉사자 200명과 함께 프로젝트를 진행하는 돌파구를 찾아냈다. 자원봉사자들은 AI 전문가도 아니었지만 저널리스트와 함께 2년간 경찰의 부정 행위 파일을 읽고, 수동으로 AI 학습용 레이블을 지정했다. 보통 저널리즘은 뉴스룸에서 저널리스트가 수행하는 것이라고 보는 것이 일반적인데, 이 사례는 저널리스트가 사건이 벌어지는 커뮤니티와 함께 AI를 활용해 문제를 해결하면서 기존 저널리즘의 경계를 넓히고 관습을 깼다. 결국 AI Judy는 100만건이 넘는 경찰 기록을 분석해 실종자와 관련된 경찰의 부정 행위 혐의 54건을 찾아냈다(Deck, 2024).
저널리스트들은 오리지널 콘텐츠 생산에 집중했다. AI가 엄청난 속도로 100만건이 넘는 경찰 기록을 분석하고 있을 때, 저널리스트는 실종자 가족과 전현직 경찰관을 만나 40건이 넘는 인터뷰를 실시하고, 시카고 경찰의 부정을 알리는 지역 사회 행사를 주최하고, 지역 주민들과 함께 사건 공론화와 해결책 모색을 위한 6개월간의 독서 모임을 갖기도 했다(City Bureau, 2024). 총 7편의 기사는 생생한 인터뷰에 기반해 “샨티야 스미스는 자랑스럽고, 보호본능이 강한 엄마였다”는 문장으로 시작하는 내러티브 형태로 작성했다. 광범위한 데이터에 매몰되지 않고, 인간 저널리스트만이 할 수 있는 창의적인 취재 영역에 집중한 덕분이다.
또 다른 AI 수상작인 뉴욕타임스의 팔레스타인 가자 지구 보도는 AI 도구를 바탕으로 새로운 가능성을 찾는 동시에 인간 저널리스트들의 강점에 집중해 얻어낸 결과물이다. 뉴욕타임스는 AI로 남부 가자 민간인 지역의 위성 사진을 분석해 이스라엘군이 수백발의 폭탄을 투하했다는 사실을 밝혀낸 영상을 비롯해 7건의 연쇄 보도로 퓰리처상을 받았다. 뉴욕타임스의 visual investigations desk는 이스라엘 무기고에서 가장 큰 폭탄 중 하나인 2000파운드 폭탄이 남긴 분화구를 AI로 분석해서 보여주는 비주얼 보도로, 가자 지구의 참상을 알리기로 결정했다. 하지만 이들이 원하는 분화구 패턴 분석을 위한 AI 도구를 찾지 못했다. 이를 위해선 스스로 AI 알고리즘을 훈련시켜야 했고, 또 한 장당 수백메가바이트에서 수기가바이트씩 하는 고용량 이미지를 신속하게 처리할 수 있는 컴퓨팅 자원도 마련해야 했다(Deck, 2024). 이들은 노력 끝에 Picterra라는 외부의 AI 도구를 찾아 일일이 분화구 모양을 학습시켜가면서 알고리즘을 만들었다. 그리고 해당 지역에 2000파운드 폭탄의 유형과 일치하는 분화구가 200개 이상 있음을 확인해, 생생하게 영상으로 보도했다. 수상자인 뉴욕타임스의 Ishaan Jhaveri는 “우리는 수작업으로 수행하던 작업을 대체하기 위해 AI를 사용하지 않았다. 수작업으로 수행하면 시간이 너무 오래 걸려 다른 조사 업무에 방해가 될 수 있는 유형의 작업이었기 때문에 AI를 사용했다”고 말했다(Deck, 2024). 실제로 이들이 함께 보도한 6건의 기사는 대부분 현장을 발로 뛰면서 현지 군인들과 생존자, 피해자 가족들로부터 직접 입수한 정보들로 채워졌다. 수상작 중 하나인 ‘The day Hamas Came’에서 취재진은 “80명 이상의 생존자, 피해자의 친척, 마을 지도자, 군인, 의료진을 인터뷰하고 9시간 이상의 보안 카메라 영상과 가자 지역 주민들이 촬영한 휴대폰 및 바디캠 영상을 확인했다. 또한 1000개 이상의 문자 메시지와 음성 녹음을 검토했다”고 밝혔다.
이 같은 결과는 인간이 AI의 한계에 갇히지 않기위해 부단히 노력한 결과다. Flusser는 “카메라를 손에 쥐고 있는 사람은 누구나 버튼만 누르면 복잡한 과정 없이도 훌륭한 사진을 찍을 수 있다“며 ”스냅 사진을 찍는 사람들은 이제 카메라를 통해서만 세상을 볼 수 있고, 사진 카테고리로만 세상을 볼 수 있게 됐다”고 지적한다 (2006, pp. 57-58). 뉴스룸에서 대량으로 생산되는 ‘스냅샷’은 이를 소비하는 이용자들의 시야 역시 좁고 흐리게 만들 위험이 있다.
이 논문은 자동화 기술의 일환인 생성형 AI의 확산으로 인간과의 경계가 무너질 때 어떤 결과가 나타나는지 분석하고, 이에 대한 대응을 고찰했다. 생성형 AI 도입에 적극적인 한국 뉴스룸의 사례는 이 수용 과정이 사회 문화적 환경의 결과물이라는 것을 보여준다. 신기술이 등장할 때 이를 적용하는 것은 전적으로 수용자의 몫처럼 보이지만 그 영향 범위 안의 주체들과의 미묘한 관계 속에서 경계가 결정된다. AI의 적용 범위가 사회적 합의 수준을 넘어설 때 수용자들의 반작용에 부딪히고, 결과적으로 신뢰를 잃는 부정적 결과에 다다를 수 있다. 이 논문은 뉴스룸의 사례를 중점적으로 보여주지만 결국 이 교훈은 다른 현장에도 똑같이 확대 적용할 수 있다.
오랜 시간 인간 창의성의 상징이었던 체스에서의 교훈을 바탕으로 ‘Centaur Journalism’을 처음으로 제안한다. 콘텐츠를 생산하는 특성상 생성형 AI의 도입이 가장 빠르고, 또 그로 인해 사회에 많은 영향을 끼치는 분야가 저널리즘이기 때문이다. 저널리즘의 영향력은 정보 산업의 일부에 그치지 않고 한 사회를 해석하는 창이자, 사회를 구성하는 원동력으로 작용한다. AI와 승패를 가릴 것이 아니라, AI는 인간이 목표를 빠르게 달성할 수 있는 조력자가 되어야 한다는 패러다임의 전환이 필요하다.
AI와 Centaur가 되기위해 염두해야 할 세 가지 요소를 제시한다. AI를 면밀하게 이해해 최상의 퍼포먼스를 낼 수 있는 인간과의 경계를 정하는 것이 첫째다. 이어 기계가 가진 블랙박스적 문제점을 인식하고 이것이 가져올 부작용을 항상 고려해야 한다. Flusser의 카메라, 블랙박스 비유는 결국 기술에 대한 이야기이자, 사람과 도구와의 관계에 대한 이야기다. 우리는 블랙박스와 같은 AI가 확대하는 가운데 이를 더 투명하게 잘 이해해야 하는 모순된 숙제 앞에 놓여 있다. 마지막으로 기계가 허락하는 한계에 갇히지 말고 항상 그 이상을 탐구하는 비판적, 창의적 자세를 강조한다. 인간의 창의력을 상징하는 체스와 바둑은 우리에게 앞서 경고를 보낸 분야다. 현재는 AI가 특정 분야에서만 두각을 나타내는 ‘좁은 지능’이지만, 점차 ‘인공 일반지능(AGI)’으로 발전해갈수록 이 경고를 더 크게 받아들여야 한다.
1800년대초 Luddite 운동은 산업 혁명으로 기계가 우위를 점하기 시작하자, 노동자들이 자본가에 맞서 벌인 계급투쟁 운동의 일환이었다. 이 같은 신기술 반대도 결국 흐름을 바꾸지는 못했다. 지금까지의 자동화 기술이 그랬듯 AI가 사람을 대체하지는 못한다. 무언가 대체하는 것이 있다면, 그것은 AI를 이용하는 사람이 이용하지 않는 사람을 대체할 뿐이다. 피할 수 없으면 적극적으로 뛰어들어 협업하는 것이 때로는 최선의 방책이 될 수 있다. 누구보다 먼저 Centaur가 되어야 할 순간이다.
References
- Achenbach, J. (1997) ‘In Chess Battle, Only the Human Has His Wits About Him’, WashingtonPost, 10 May. Available at: https://www.washingtonpost.com/wp-srv/tech/analysis/kasparov/post3.htm (Accessed: 1 May 2024).
- Averre, D. (2024) ‘Literary prize winner says ChatGPT wrote some of her sci-fi novel’, Daily Mail, 18 January. Available at: https://www.dailymail.co.uk/news/article-12979117/ChatGPT-wrote-prizewinning-novel-flawless.html (Accessed: 23 July 2024).
- Barrabi, T. (2024) ‘Google’s AI chatbot Gemini makes “diverse” images of founding fathers, popes and vikings’, New York Post, 21 February. Available at: https://nypost.com/2024/02/21/business/googles-ai-chatbot-gemini-makes-diverse-images-of-founding-fathers-popes-and-vikings-so-woke-its-unusable/ (Accessed: 4 July 2024).
- Barrett, A. (2023) AP Definitive Source | Standards around generative AI. Available at: https://blog.ap.org/standards-around-generative-ai (Accessed: 17 June 2024).
- Boston Dynamics (2021) Atlas | Partners in Parkour. 17 August. Available at: https://www.youtube.com/watch?v=tF4DML7FIWk (Accessed: 2 August 2024).
- Bridle, J. (2018) ‘Rise of the machines: has technology evolved beyond our control?’, The Guardian, 15 June. Available at: https://www.theguardian.com/books/2018/jun/15/rise-of-the-machines-has-technology-evolved-beyond-our-control- (Accessed: 22 May 2024).
- British Go Association (no date), Celebrities who have played Go. Available at: https://www.britgo.org/general/celeb/index.html (Accessed: 1 August 2024).
- Brown, K. (2023) ‘Hito Steyerl on Why NFTs and A.I. Image Generators Are Really Just ‘Onboarding Tools’ for Tech Conglomerates’, Artnet News, 10 March. Available at: https://news.artnet.com/art-world/these-renderings-do-not-relate-to-reality-hito-steyerl-on-the-ideologies-embedded-in-a-i-image-generators-2264692 (Accessed: 21 April 2024).
- Bugeja, M. (2023) ‘How journalism should face the unchecked threats of generative AI’, Poynter, 12 September. Available at: https://www.poynter.org/commentary/2023/how-journalism-should-face-the-unchecked-threats-of-generative-ai/ (Accessed: 4 August 2024).
- Case, N. (2018) ‘How To Become A Centaur’, Journal of Design and Science [Preprint]. doi: https://doi.org/10.21428/61b2215c.
- Chiang, T. (2023) ‘ChatGPT Is a Blurry JPEG of the Web’, The New Yorker, 9 February. Available at: https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web (Accessed: 6 June 2024).
- Choi, S. (2023) ‘Can Generative AI Replace Journalists?’, Newspaper and Broadcasting, 636, 27 November. pp. 18-21. Available at: http://www.kpf.or.kr/front/news/articleDetail/595905.do (Accessed: 10 August 2024).
- Choi, S. (2024a) ‘Establish rules, develop tools, and support costs; Media companies spur AI experiments’, Korean Journalist Association News, 23 April. Available at: https://www.journalist.or.kr/news/article.html?no=55715 (Accessed: 16 July 2024).
- Choi, S. (2024b) ‘Generative AI makes a front page article of a newspaper in 10 seconds’, Korean Journalist Association News, 30 April. Available at: https://www.journalist.or.kr/news/article.html?no=55765 (Accessed: 16 July 2024).
- Chosunilbo (2024) ‘Chosunilbo writes articles using AI for the first time in Korean media’, Chosunilbo Sabo, 13 January. Available at: https://archive.chosun.com/sabo/sabo_ReadBody_s.jsp?Y=2024&M=01&D=13&ID=202401130102 (Accessed: 26 March 2024).
- Christian, J. (2023) ‘CNET’s Article-Writing AI Is Already Publishing Very Dumb Errors’, Futurism, 29 January. Available at: https://futurism.com/cnet-ai-errors (Accessed: 4 May 2024).
- City Bureau (2024) City Bureau and Invisible Institute win 2024 Pulitzer Prize in Local Reporting. Available at: https://www.citybureau.org/notebook/city-bureau-and-invisible-institute-win-2024-pulitzer-prize-in-local-reporting (Accessed: 28 July 2024).
- Christer, C. (2014) Enter the robot journalist. Journalism Practice, 8(5), pp.519-531.
- Cohn, D. (2022) ‘The future of content creation with AI is closer than you might think’, Poynter, 17 October. Available at: https://www.poynter.org/commentary/2022/the-future-of-content-creation-with-ai-is-closer-than-you-might-think/ (Accessed: 26 July 2024).
- Deck, A. (2024) ‘For the first time, two Pulitzer winners disclosed using AI in their reporting’, Nieman Lab, 9 May. Available at: https://www.niemanlab.org/2024/05/for-the-first-time-two-pulitzer-winners-disclosed-using-ai-in-their-reporting/ (Accessed: 11 July 2024).
- Diakopoulos, N. et al. (2024) Generative AI in Journalism: The Evolution of Newswork and Ethics in a Generative Information Ecosystem. Available at: http://dx.doi.org/10.13140/RG.2.2.31540.05765
- Farhi, P. (2023) ‘CNET used AI to write articles. It was a journalistic disaster’, The Washington Post, 13 April. Available at: https://www.washingtonpost.com/media/2023/01/17/cnet-ai-articles-journalism-corrections/ (Accessed: 4 August 2024).
- Flusser, V. (2006) Towards a philosophy of photography. London: Reaktion.
- Freedberg, S. (2015) Centaur Army: Bob Work, Robotics, & The Third Offset Strategy. Available at: https://breakingdefense.com/2015/11/centaur-army-bob-work-robotics-the-third-offset-strategy/ (Accessed: 23 July 2024).
- Fu, A. (2023) ‘How some local newsrooms are using AI’, Poynter, 2 August. Available at: https://www.poynter.org/tech-tools/2023/how-some-local-newsrooms-are-using-ai/ (Accessed: 27 July 2024).
- Geum, J. (2024) ‘Naver restricts AI articles and only allows articles in which people are actively involved’, Mediatoday, 8 February. Available at: https://n.news.naver.com/mnews/article/006/0000122262?sid=105 (Accessed: 26 March 2024).
- Google DeepMind (2020) AlphaGo. Available at: https://deepmind.google/technologies/alphago/ (Accessed: 1 July 2024).
- Gu, H. (2024) ‘ChatGPT has 175 Billion Variables…AI Black Box Deepens’, Munhwailbo, 13 March. Available at: https://n.news.naver.com/mnews/article/021/0002626122?sid=105 (Accessed: 3 July 2024).
- Guglielmo, C. (2023) ‘CNET Is Experimenting With an AI Assist. Here’s Why’, CNET, 16 January. Available at: https://www.cnet.com/tech/cnet-is-experimenting-with-an-ai-assist-heres-why/ (Accessed: 4 July 2024).
- Hankookilbo (2024) ‘Compare the article written by AI with the article fixed by the editor’, Hankookilbo, 22 February. Available at: https://www.hankookilbo.com/News/Read/A2024022114460003976 (Accessed: 5 July 2024).
- Hernández, J.S.F. (2024) ‘The Moravec’s Paradox’, Medium, 8 February. Available at: https://medium.com/@jhoansfuentes1999/the-moravecs-paradox-2c42b34e0f7a (Accessed: 3 August 2024).
- Hille, P. (2023) ‘AI: Chatbots replace journalists – DW – 06/21/2023’, dw.com, 21 June. Available at: https://www.dw.com/en/ai-chatbots-replace-journalists-in-news-writing/a-65988172 (Accessed: 26 July 2024).
- Hyung, M. (2024) ‘“AI composition is the best.” The theme song of the Jeonnam Future Education Fair is going viral.’, Yonhap News Agency, 5 April. Available at: https://www.yna.co.kr/view/AKR20240405156400054?input=1195m (Accessed: 23 August 2024).
- IBM (no date) Deep Blue. Available at: https://www.ibm.com/history/deep-blue (Accessed: 1 August 2024).
- Ip, G. (2023) ‘The Robots Have Finally Come for My Job’, Wall Street Journal, 5 April. Available at: https://www.wsj.com/articles/the-robots-have-finally-come-for-my-job-34a69146 (Accessed: 26 May 2024).
- Jung, J. et al. (2012) ‘Factors affecting e-book reader awareness, interest, and intention to use’. New Media & Society, 14(2), pp. 204-224. Available at: https://doi.org/10.1177/1461444811410407.
- Jung, J. et al. (2017) ‘Intrusion of software robots into journalism: The public’s and journalists’ perceptions of news written by algorithms and human journalists’, Computers in Human Behavior, 71, pp. 291–298. Available at: https://doi.org/10.1016/j.chb.2017.02.022.
- Kasparov, G. (2010) ‘The Chess Master and the Computer’, The New York Review of Books, 11 February. Available at: https://www.nybooks.com/articles/2010/02/11/the-chess-master-and-the-computer/ (Accessed: 22 July 2024).
- Kasparov, G. (2017) Don’t fear intelligent machines. Work with them. 20 June. Available at: https://www.youtube.com/watch?v=NP8xt8o4_5Q (Accessed: 1 August 2024).
- Kasparov, G. (2023) The Real Threat From ChatGPT Isn’t AI…It’s Centaurs. Available at: https://www.kasparov.com/the-real-threat-from-chatgpt-isnt-ai-its-centaurs-pcgamer-february-13-2023/ (Accessed: 22 July 2024).
- Keene, R. (2014) ‘Gifted and talented’, The Spectator, 6 September. Available at: https://www.spectator.co.uk/article/gifted-and-talented/ (Accessed: 5 August 2024).
- Kelly, J. (2024) ‘The Hot, New High-Paying Career Is An AI Prompt Engineer’, Forbes, 6 March. Available at: https://www.forbes.com/sites/jackkelly/2024/03/06/the-hot-new-high-paying-career-is-an-ai-prompt-engineer/ (Accessed: 25 July 2024).
- Khalaf, R. (2023) Letter from the editor on generative AI and the FT. Available at: https://www.ft.com/content/18337836-7c5f-42bd-a57a-24cdbd06ec51 (Accessed: 17 July 2024).
- Kim, B. (2016) ‘Beginning of AlphaGo’s 3rd Go Revolution?’, Korea Economic Daily, 15 March. Available at: https://n.news.naver.com/mnews/article/015/0003564189?sid=105 (Accessed: 3 August 2024).
- Kim, J. (2023) ‘A yellow jab made my fat dissolved’, Korean lemon bottle jab goes viral in the UK’, Chosunilbo, 18 December. Available at: https://www.chosun.com/national/national_general/2023/12/28/BZHJEK5IKZGGFC634NJGDX2CNA/ (Accessed: 12 May 2024).
- Kim, J. (2024) ‘<21st anniversary> The future becomes a reality; Local media’s way in the ChatGPT era’, Chungbukilbo, 21 February. Available at: http://www.inews365.com/news/article.html?no=801253 (Accessed: 16 July 2024).
- Kim, M. (2021) What is generative AI? Available at: https://research.ibm.com/blog/what-is-generative-AI (Accessed: 15 July 2024).
- Kim, S. (2017) ‘Ke Jie, “AlphaGo is the god of Go”’, cyberoro, 23 May. Available at: http://www.cyberoro.com/news/news_view.oro?num=523012 (Accessed: 14 July 2024).
- Kim, S. (2023) Journalism and The Licence to Questioning. Seoul: Communication books.
- Korea Bizwire (2024) ‘Koreans Lead in Embracing Mobile AI, Samsung Study Finds’, Korea Bizwire, 13 July. Available at: http://koreabizwire.com/koreans-lead-in-embracing-mobile-ai-samsung-study-finds-2/286725 (Accessed: 15 July 2024).
- Korea Press Foundation (2019; 2021; 2023) Korean Journalists Survey 2019, 2021, 2023. Available at: https://www.kpf.or.kr/front/research/reporterDetail.do?miv_pageNo=&miv_pageSize=&total_cnt=&LISTOP=&mode=W&seq=595924&link_g_topmenu_id=&link_g_submenu_id=&link_g_homepage=F®_stadt=®_enddt=&searchkey=all1&searchtxt= (Accessed: 17 July 2024).
- Korean Association of Newspapers (2024) 82.6% of newspaper companies are currently using or planning to use generative AI. Available at: http://www.presskorea.or.kr/notice/board_detail.php?m=3&sm=4&tm=23&seq=265867&board_id=FCS&page=2&sort=2&search_select=3&search_text= (Accessed: 16 July 2024).
- Lai, D. (2004) Learning from the stones: A Go approach to Mastering China’s strategic concept, Shi. Pennsylvania: US Army War College Press.
- Lamont, T. (2024) ‘“Humanity’s remaining timeline? It looks more like five years than 50”: meet the neo-luddites warning of an AI apocalypse’, The Guardian, 17 February. Available at: https://www.theguardian.com/technology/2024/feb/17/humanitys-remaining-timeline-it-looks-more-like-five-years-than-50-meet-the-neo-luddites-warning-of-an-ai-apocalypse (Accessed: 23 May 2024).
- LeCompte, C. (2015) ‘Automation In the Newsroom’. Nieman reports, 69(3), pp.32-45. Available at: https://niemanreports.org/wp-content/uploads/2015/08/NRsummer2015.pdf.
- Lee, H. (2024) ‘Sorry that the Go department has become “dead stone”’, Chosunilbo, 4 April. Available at: https://www.chosun.com/opinion/desk/2022/12/16/YMJBCOSYV5HFXBZSXDFOCJLMYQ/?utm_source=naver&utm_medium=referral&utm_campaign=naver-news (Accessed: 5 August 2024).
- Lee, S. (2024) ‘The world’s only Go department, Myongji Univ faces closure’, Dongailbo, 28 March. Available at: https://www.donga.com/news/article/all/20240327/124191231/1 (Accessed: 20 July 2024).
- Lee, S. and Kim, S. (2022) ‘The Hidden Side of the Critical Term “Giregi” : A Content Analysis of Various Criticism In OnlineCommunities’, Korean Journal of Communication & Information, 115, pp. 47–83. Available at: https://doi.org/10.46407/kjci.2022.10.115.47.
- Levine et al. (2022) Weak Human, Strong Force: Applying Advanced Chess to Military AI, War on the Rocks. Available at: https://warontherocks.com/2022/07/weak-human-strong-force-applying-advanced-chess-to-military-ai/ (Accessed: 23 July 2024).
- Liang, A. (2024) ‘AI to hit 40% of jobs and worsen inequality, IMF says’, BBC News, 15 January. Available at: https://www.bbc.com/news/business-67977967 (Accessed: 23 May 2024).
- Linden, C.G. (2017) ‘Decades of Automation in the Newsroom: Why are there still so many jobs in journalism?’, Digital Journalism, 5(2), pp. 123–140. Available at: https://doi.org/10.1080/21670811.2016.1160791.
- Mackay, R. and Avanessian, A. eds. (2014) Accelerate: The Accelerationist Reader. Cambridge: MIT Press.
- Matthews, D. (2023) ‘If you’re not using ChatGPT for your writing, you’re probably making a mistake’, Vox, 14 March. Available at: https://www.vox.com/future-perfect/2023/3/14/23637633/chatgpt-bing-generative-ai-ethan-lilach-mollick (Accessed: 2 August 2024).
- Meir, N. (2023) AP Definitive Source | Introducing 5 AI solutions for local news. Available at: https://blog.ap.org/introducing-5-ai-solutions-for-local-news (Accessed: 3 August 2024).
- Metz, C. and Schmidt, G. (2023) ‘Elon Musk and Others Call for Pause on A.I., Citing “Profound Risks to Society”’, The New York Times, 29 March. Available at: https://www.nytimes.com/2023/03/29/technology/ai-artificial-intelligence-musk-risks.html (Accessed: 23 June 2024).
- Mir, A. (2024) Postjournalism of Generative AI, Discourse. Available at: https://www.discoursemagazine.com/p/postjournalism-of-generative-ai (Accessed: 4 August 2024).
- Moravec, H. (1988) Mind children: the future of robot and human intelligence. 4th edn. Cambridge: Harvard Univ. Press.
- Mundy, S. (2016) ‘AlphaGo conquers Korean grandmaster Lee Se-dol’, FT, 15 March. Available at: https://www.ft.com/content/f6b90460-eaa5-11e5-9fca-fb0f946fd1f0 (Accessed: 20 July 2024).
- Naver (2024) Naver aims to stop the harm caused by Generative AI and deepfakes and is taking the lead in preventing the spread of false information. Available at: https://blog.naver.com/naver_diary/223367878123 (Accessed: 18 July 2024).
- OECD (2024) OECD Digital Economy Outlook 2024 (Volume 1): Embracing the Technology Frontier, Available at: https://doi.org/10.1787/a1689dc5-en.
- ‘Onboarding, n.2’ (2024) in Marriam-Webster Online. Available at: https://www.merriam-webster.com/dictionary/onboarding (Accessed: 9 August 2024).
- Park, S. and Geum, J. (2024) Korean Media Uses AI That Generates Articles… Enter the press release and begin requesting the articles, Mediatoday. Available at: https://www.mediatoday.co.kr/news/articleView.html?idxno=314854 (Accessed: 28 July 2024).
- Pavlik, J. (2000) ‘The Impact of Technology on Journalism’, Journalism Studies, 1(2), pp. 229–237. Available at: https://doi.org/10.1080/14616700050028226.
- Picard, R. (2006) ‘Journalism, Value Creation and the Future of News Organizations’, Shorenstein Fellow Research Paper Series, 2006, Available at: https://dash.harvard.edu/handle/1/37375924.
- Quinonez, C. and Meij, E. (2024) ‘A new era of AI‐assisted journalism at Bloomberg’, AI Magazine, 45(2), pp. 187–199. Available at: https://doi.org/10.1002/aaai.12181.
- Radsch, C.C. (2024) Can journalism survive AI?, Brookings, 25 March. Available at: https://www.brookings.edu/articles/can-journalism-survive-ai/ (Accessed: 14 August 2024).
- Reuters (2017) Reuters News Tracer. Available at: https://www.reutersagency.com/en/reuters-community/reuters-news-tracer-filtering-through-the-noise-of-social-media/ (Accessed: 27 July 2024).
- Reuters Institute (2024) Digital News Report 2024. Available at: https://doi.org/10.60625/risj-vy6n-4v57.
- Rogers, A. (2019) ‘Council Post: What Deep Blue And AlphaGo Can Teach Us About Explainable AI’, Forbes, 9 May. Available at: https://www.forbes.com/sites/forbestechcouncil/2019/05/09/what-deep-blue-and-alphago-can-teach-us-about-explainable-ai/ (Accessed: 1 August 2024).
- Roose, K. (2022) ‘AI-Generated Art Won a Prize. Artists Aren’t Happy’, The New York Times, 2 September. Available at: https://www.nytimes.com/2022/09/02/technology/ai-artificial-intelligence-artists.html (Accessed: 23 May 2024).
- Rosenberg, M. and Markoff, J. (2016) ‘The Pentagon’s “Terminator Conundrum”: Robots That Could Kill on Their own’, The New York Times, 25 October. Available at: http://www.nytimes.com/2016/10/26/us/pentagon-artificial-intelligence-terminator.html (Accessed: 23 July 2024).
- Samsung Newsroom (2024), [Galaxy Unpacked 2024] The Future of Mobile AI: Expert Panel Highlights Collaborative, Responsible AI Innovation, Available at: https://news.samsung.com/global/galaxy-unpacked-2024-the-future-of-mobile-ai-expert-panel-highlights-collaborative-responsible-ai-innovation (Accessed: 15 July 2024)
- Savage, A. (2008) All artists are not chess players – all chess players are artists’ Marcel Duchamp. Available at: https://www.tate.org.uk/tate-etc/issue-12-spring-2008/all-artists-are-not-chess-players-all-chess-players-are-artists-marcel (Accessed: 31 July 2024).
- Schmidt, C. (2018) ‘Bylines on the Homepage? Not The New York Times’ Priority Anymore in the Latest Homepage Redesign.’ Nieman Lab, 23 August. Available at: https://www.niemanlab.org/2018/08/bylines-on-the-homepage-not-the-new-york-times-priority-anymore-in-the-latest-homepage-redesign/ (Accessed: 31 July 2024).
- Schultz, I. (2024) ‘Why AI Model Collapse Due to Self-Training Is a Growing Concern’, Gizmodo, 24 July. Available at: https://gizmodo.com/ai-learning-from-its-own-nonsense-might-just-self-destruct-experts-warn-2000478095 (Accessed: 4 August 2024).
- Shigenobu, M. (2023) Analysis: Could AI replace humans in journalism? Available at: http://institute.aljazeera.net/en/ajr/article/2263 (Accessed: 14 August 2024).
- Shumailov, I. et al. (2024) ‘AI models collapse when trained on recursively generated data’, Nature, 631(8022), pp. 755–759. Available at: https://doi.org/10.1038/s41586-024-07566-y.
- Silver, D. and Hassabis, D. (2017) AlphaGo Zero: Starting from scratch. Available at: https://deepmind.google/discover/blog/alphago-zero-starting-from-scratch/ (Accessed: 23 June 2024).
- Sirén-Heikel, S. et al. (2019) ‘Unboxing news automation: Exploring imagined affordances of automation in news journalism’, Nordic Journal of Media Studies, 1(1), pp. 47–66. Available at: https://doi.org/10.2478/njms-2019-0004.
- Stein, R. et al. (2023) ‘Video: Visual Evidence Shows Israel Dropped 2,000-Pound Bombs Where It Ordered Gaza’s Civilians to Move for Safety’, The New York Times, 22 December. Available at: https://www.nytimes.com/video/world/100000009208814/israel-gaza-bomb-civilians.html (Accessed: 23 July 2024).
- Sundin, M. (2023) ‘How two amateurs beat the chess grandmasters’, Warp News, 21 November. Available at: https://www.warpnews.org/centaurs-edge/how-two-amateurs-beat-the-chess-grandmasters-excerpt-from-the-new-ai-book-the-centaurs-advantage/ (Accessed: 23 July 2024).
- Sutton, S.G., Arnold, V. and Holt, M. (2018) ‘How much automation is too much? Keeping the human relevant in knowledge work’. Journal of Emerging Technologies in Accounting, 15(2), pp. 15-25. Available at:
- Tandoc Jr, E.C., Yao, L.J. and Wu, S. (2020) ‘Man vs. Machine? The Impact of Algorithm Authorship on News Credibility’, Digital Journalism, 8(4), pp. 548–562. Available at: https://doi.org/10.1080/21670811.2020.1762102.
- Tegmark, M.(2018) Life 3.0: Being human in the age of artificial intelligence. New York: Vintage.
- The Associated Press (2019) AP to automate men’s college basketball game previews using Automated Insights. Available at: https://www.ap.org/media-center/press-releases/2019/ap-to-automate-mens-college-basketball-game-previews-using-automated-insights/ (Accessed: 10 August 2024).
- The New York Times Company (2024) Principles for Using Generative A․I․ in The Times’s Newsroom. Available at: https://www.nytco.com/press/principles-for-using-generative-a%e2%80%a4i%e2%80%a4-in-the-timess-newsroom/ (Accessed: 17 July 2024).
- The Pulitzer Prizes (2024) Sarah Conway of City Bureau and Trina Reynolds-Tyler of the Invisible Institute. Available at: https://www.pulitzer.org/winners/sarah-conway-city-bureau-and-trina-reynolds-tyler-invisible-institute (Accessed: 28 July 2024).
- Thomas, S. (2024) ‘The person who edited this will soon be redundant’, The Spectator, 5 April. Available at: https://www.spectator.co.uk/article/the-person-who-edited-this-will-soon-be-redundant/ (Accessed: 2 August 2024).
- Thompson, C. (2022) ‘What the history of AI tells us about its future’, MIT Technology Review, 18 February. Available at: https://www.technologyreview.com/2022/02/18/1044709/ibm-deep-blue-ai-history/ (Accessed: 1 August 2024).
- Thomson Reuters (2023) Data and AI ethics principles. Available at: https://www.thomsonreuters.com/en/artificial-intelligence/ai-principles.html (Accessed: 17 July 2024).
- Turing, A.M. (1950) ‘I.—COMPUTING MACHINERY AND INTELLIGENCE’, Mind, LIX(236), pp. 433-460. Available at: https://doi.org/10.1093/mind/LIX.236.433.
- Tzu, S. (1963) The art of war. New York: Oxford University Press.
- Van der Kaa, H.A. and Krahmer, E.J. (2014) Journalist versus news consumer: The perceived credibility of machine written news. In Computation+ Journalism Symposium 2014.
- Viner, K. and Bateson, A. (2023) ‘The Guardian’s approach to generative AI’, The Guardian, 16 June. Available at: https://www.theguardian.com/help/insideguardian/2023/jun/16/the-guardians-approach-to-generative-ai (Accessed: 17 July 2024).
- Wakabayashi, D. and Young, J.Y. (2024) ‘Defeated by A.I., a Legend in the Board Game Go Warns: Get Ready for What’s Next’, The New York Times, 10 July. Available at: https://www.nytimes.com/2024/07/10/world/asia/lee-saedol-go-ai.html (Accessed: 20 July 2024).
- Warzel, C. (2024) ‘This Is What It Looks Like When AI Eats the World’, The Atlantic, 7 June. Available at: https://www.theatlantic.com/technology/archive/2024/06/ai-eats-the-world/678627/ (Accessed: 6 August 2024).
- Yoo, C. (2019) ‘(Yonhap Interview) Go master Lee says he quits unable to win over AI Go players’, Yonhap News, 27 November. Available at: https://en.yna.co.kr/view/AEN20191127004800315 (Accessed: 20 July 2024).
- Yoon, J. (2024) ‘You can become a webtoon artist even if you don’t have drawing skills.’, Joongangilbo, 15 August. Available at: https://n.news.naver.com/mnews/article/025/0003379982?sid=105 (Accessed: 20 August 2024).