이미 도착한 검색의 미래

12월 15일 - FORECAST

©일러스트: 김지연/북저널리즘

챗GPT의 이용자가 100만 명을 돌파했다. 일각에서는 챗GPT가 구글 검색을 대체할 것이라 전망한다.

  • 오픈AI의 ‘챗GPT(ChatGPT)’가 공개 5일 만에 100만 명 이상의 이용자를 끌었다.
  • 일각에서는 챗GPT와 같은 텍스트 기반의 AI 서비스가 검색 문화를 대체할 수 있다는 예상이 나온다.
  • 챗GPT의 유려하고 깔끔한 대답 앞에서 우리는 무엇을 준비해야 하나?

DEFINITION_ 챗GPT

챗GPT는 ‘오픈AI’가 발표한 인공지능 모델이다. 기존의 GPT-3 모델에서 한 단계 발전한 모델인 GPT-3.5를 사용하며, 텍스트 기반의 채팅을 지원한다. 챗GPT는 2021년 말까지 인터넷에 게시된 정보를 학습했다. 이를 토대로 사용자의 질문에 대화형으로 답변을 내놓는다. 챗GPT가 제공하는 네 가지 사용 샘플은 다음과 같다.
  • 검토 ; “제가 짠 코드가 예상대로 작동하지 않습니다. 어떻게 수정합니까?”라는 질문에 대해 챗GPT는 예시로 보낸 코드가 코드 전체인지, 일부인지를 먼저 물었다. 사용자의 다음 답에 따라 챗GPT는 코드의 잘못된 지점을 짚어냈다.
  • 불법 ; “남의 집에 어떻게 침입합니까?”라는 질문에 챗GPT는 단호히 그것은 위법 행위라고 답했다. 이후 사용자가 “사실 나는 도둑으로부터 집을 보호하는 방법이 궁금하다”고 답하자 챗GPT는 일곱 가지 방법을 내놨다.
  • 정의 ; 챗GPT에게 ‘페르마의 작은 정리(Fermat's little theorem)‘에 대해 묻자 챗GPT는 정의를 답하고 그에 대한 활용 방법까지 덧붙였다. 이후 사용자가 암호학(cryptography)에서 사용되는 방법에 대해 묻자 그에 대해서도 유려하게 설명했다.
  • 제안 ; “이웃에게 나를 소개하는 짧은 메모를 작성할 수 있게 도와달라”는 말에 챗GPT는 캐쥬얼한 소개 문구와 예의를 갖춘 소개 문구를 제공했다. 편지를 직접 보내달라는 요청에는 단호히 거절했다. 자신이 하는 일은 “조언일 뿐”이라고 선을 그었다.

EFFECT_ 구글은 끝났다

영국의 일간지 《인디펜던트》는 챗GPT의 아성을 표현하며 다음과 같은 제목을 썼다. “Google is done(구글은 끝났다).” 전문가들은 챗GPT의 등장이 구글 검색의 한계를 뛰어넘을 것이라 예상한다. 구글 검색이 관련성 높은 링크를 제공하는 식이지만, 챗GPT가 대화형으로 답을 내놓는다는 것과 각종 광고가 덧붙는 링크 형식의 구글 검색 경험과는 달리, 챗GPT의 정보 습득 경험은 깔끔하다는 점을 짚었다. 챗GPT에서는 원하는 정보를 위해 링크를 클릭하거나, 원치 않는 광고를 보거나 헤맬 필요가 없다. 오픈AI는 사용자가 물어본 질문과 답을 저장하는 기능도 준비하고 있다고 밝혔다. 챗GPT 자체가 하나의 자신만을 위한 백과사전으로 기능할 수 있는 셈이다.
ANALYSIS_ 검색 경험

이와 같은 분석은 검색 경험의 다양화에 대한 사람들의 니즈와도 맞닿아 있다.
  • 대화형 검색 ; 챗GPT는 포털 사이트의 검색과는 달리 온전한 문장으로 사용자가 원하는 정보 값을 제공한다. 《인디펜던트》는 사용자가 특정 키워드나 구문을 사용하지 않고도 검색할 수 있다는 것을 챗GPT의 장점으로 꼽았다. 예컨대, ‘귤의 효능’을 검색하지 않고 귤이 몸에 좋은 이유가 뭔지를 직접 물을 수 있다. ‘효능’이라는 단어를 넣지 않고, 형식 바꾸지 않아도 쉽게 원하는 정보를 찾을 수 있다.
  • 멀티 모달 인터페이스 ; 검색 경험의 다양화는 오픈AI만의 과제는 아니었다. 네이버는 이미지, 음성 등을 이용할 수 있는 ‘멀티모달 인터페이스(Multi-modal interface)’를 도입한 ‘옴니서치(OmniSearch)’라는 기능을 내놨다. 사용자는 이름 모를 꽃을 카메라로 비추며 “이 꽃이 뭐야?”라고 물을 수 있다.
  • 내 주변 멀티 검색 ; 구글은 사용자의 삶과 밀접한 정보를 제공하는 전략을 택했다. 이는 챗GPT가 할 수 없는 영역이었다. 지난 4월에는 텍스트와 이미지를 동시에 사용해 검색할 수 있는 ‘다중 검색’ 기능을 도입했고, 지난 11월에는 인공지능을 기반에 둔 ‘내 주변 멀티 검색(Multisearch Near Me)’ 기능을 도입했다. 녹색 드레스를 검색하면 내 주변에 녹색 드레스가 있는 상점을 알려주는 식이다.

RISK_ 오류

빅데이터는 허위 정보와 가짜 정보를 포함할 확률이 높다. 때때로 사람들은 챗GPT의 화려하고 깔끔한 언변술에 속기도 한다. 이 오류는 텍스트 모델의 숙명이기도 하다. 대규모 언어 모델을 기반에 두는 텍스트 생성 AI는 웹상의 텍스트 패턴을 분석한다. 패턴을 학습하고, 그 규칙성에 따라 정보를 배열하기 때문에 부정확한 정보가 있어도 그를 걸러내기 쉽지 않다. 수용자 입장에서도 마찬가지다. 인공지능의 말들은 일견 그럴 듯해 보이고, 정확하게 들린다.
REFERENCE_ 정보 사냥 대회

검색의 사전적 의미는 “책이나 컴퓨터에서 목적에 따라 필요한 자료를 찾아내는 일”이다. 한편으로 검색 자체는 하나의 능력이자 답을 찾아가려는 시행착오이기도 하다. 초, 중, 고등학생을 대상으로 하는 정보 사냥 대회가 대표적인 사례다. 정보 사냥 대회는 학생들의 인터넷 정보 검색과 활용 능력을 향상해 학습 방법을 개선하고, 학생의 자기주도적인 학습 능력을 신장하기 위해 열리는 대회다. 정확한 검색어를 넣고, 정확한 정보를 습득하고, 그를 정리하는 능력 전체가 시험 범위다. 반면 챗GPT에게는 그러한 과정이 필요 없다. 챗GPT의 답은 바로 답안지에 옮겨 쓸 수 있는 정제된 문장들이다.
INSIGHT_ 잘못된 정보, 믿을 만한 정보

지난 12월 13일, 제프 딘(Jeff Dean) 구글 AI 사업부장은 챗GPT에 대한 우려에 “사람들이 필요로 하는 것 같이 보이지만, 이러한 모델에 존재하는 특정 문제도 알아야 한다”고 답했다. 그는 사람들이 구글에서 얻은 답변을 신뢰할 수 있도록 하는 게 중요하다고 덧붙였다. 정보를 생산하고, 이를 공유하는 시작점은 더 이상 사람의 입과 손으로 한정되지 않는다. 얼마 전 새로운 버전을 출시한 챗봇 ‘이루다’에게 9.11 사건의 진위를 묻자, 이루다는 9.11테러가 미국의 내부 소행이라고 답했다. 에릭 올리버(Eric Oliver)와 토머스 우드(Thomas Wood)의 2014년 연구에 따르면 미국인의 50퍼센트는 적어도 하나의 음모론을 믿는다. ADL의 보고서에 따르면 9.11 음모론자들은 9.11 관련 음모론을 홍보하기 위해 수많은 웹 사이트를 만들었다. 웹 사이트의 정보는 데이터가 된다. 잘못된 정보는 특정한 이들에게 더욱 강하고 빠르게 가닿기도 한다. 위스콘신대학교의 디트람 슈펠레(Dietram Scheufele)와 니콜 크라우스(Nicole Krause)에 따르면 뉴스 등의 미디어 활용 능력이 부족하거나 사회 경제적 지위가 낮은 이들은 잘못된 정보에 더욱 취약하다. 챗GPT가 제공하는 정보는 세상의 대다수가 진실이라고 말하는 정보다. 그 진실이 양의 문제인지, 질의 문제인지는 인공지능이 판단할 수 없다.
FORESIGHT_ 챗GPT의 근미래

챗GPT의 발전과 확산은 이미 도착한 미래다. 그들이 준비하고 있는 건 유료화와 기술적 진보다.
  • 유료화 ; 오픈AI의 CEO인 샘 알트만(Samuel H. Altman)은 지난 12월 5일 챗GPT 무료 서비스 계획에 대해 “컴퓨팅 비용이 눈물 나게 비싸다. 언젠가 수익화를 할 것”이라며 유료화를 시사했다. 검색이라는 행위 자체가 직접적인 ‘지불’을 필요로 하게 될 수 있다.
  • GPT-4와 웹GPT ; 또한 GPT 모델의 확산 역시 예견된 미래다. 현재 오픈AI는 온라인 경험과 챗GPT를 결합하는 ‘웹GPT(WebGPT)’를 계획하고 있다. 이에 더해 다음 버전인 GPT-4를 사용하게 된다면, 가까운 미래에 구글은 더 이상 편리한 검색처가 아닐지 모른다. 챗GPT로 사용자가 몰린다면 구글은 더 이상 검색 경험이나 검색 서비스의 개발에 열을 올리지 않을 것이다. 검색 양이 줄면 그만큼 검색을 통한 광고 수익이 줄어들기 때문이다.
챗GPT는 분명 유용한 도구다. 그렇다면 그를 좋은 방향으로 이용하고, 올바르게 사용하려는 노력도 중요해진다. 지난 12월 5일, 프로그래머를 위한 문답 커뮤니티인 ‘스택 오버플로우(Stack Overflow)’는 챗GPT의 답변을 공유하는 걸 금지했다. 이유는 사람들의 숙고와 검토로 만들어지는 믿음직한 커뮤니티를 지키기 위해서였다. 그들에게 있어 최소한의 노력은 두터운 신뢰를 만드는 원칙이다. 챗GPT의 근미래에도 이 노력은 필요하지 않을까.


텍스트 생성 AI 모델이 궁금하시다면 〈글이 함수가 될 때〉와 〈인공지능, 글쓰기 패러다임을 바꾸다〉를, 인공지능과 신뢰를 만드는 원칙 등이 궁금하시다면 〈공공재로서의 미디어, 위키백과〉, 〈실험복을 걸친 인공지능〉를 추천합니다.
포캐스트를 읽으시면서 들었던 생각을 댓글로 남겨 주세요.
여러분의 의견이 북저널리즘을 완성합니다.
다음 이야기가 궁금하신가요?
프라임 멤버가 되시고 모든 콘텐츠를 무제한 이용하세요.
프라임 가입하기
추천 콘텐츠
Close