“AI 시대, 우리가 던져야 할 진짜 질문은 기술이 아니라 인간이다.”
AI를 안 쓰는 사람은 있어도, 한 번만 쓴 사람은 없을 것이다. 그만큼 AI는 우리 일상에 없어서는 안 될 중요한 존재가 됐으며, 누구나 AI를 개발하고 활용할 수 있게 됐다. 우리는 AI를 통해 큰 수익을 내길 바라며, AI를 이용해 더 나은 세상을 살길 바란다.
하지만 모든 것에 이면이 있듯, AI에도 이면은 있다. 즉, AI의 한계다.
많은 사람은 AI가 마치 사람처럼 정보를 모으고, 나름의 판단을 한다고 생각하지만, 실제로는 아니다. AI는 그저 수많은 데이터를 사용해, 특정한 패턴을 찾아 답을 내놓도록 학습을 받은 것뿐이다. 이런 일련의 일들 후에도 AI는 자신이 무슨 일을 하는지조차 모르며, 정보의 실제 의미를 이해하지 못할 수 있다. AI는 그저 사람이 지시한 일을 ‘흉내’ 낸다.
이 책을 읽는 독자들은 아마, 이 책을 덮고 난 뒤 다음과 같은 생각을 하게 될 것이다.
ㆍ경외감: “AI가 이런 일도 해낼 수 있다니 놀랍다.”
ㆍ경계심: “AI가 자신이 무엇을 하고 있는지, 왜 하는지도 모른다니 놀랍다.”
그런 점에서 이 책은 지금 우리 사회가 직면한 AI에 대한 현실적 고민을 가장 실용적이면서도 철학적인 시각으로 풀어낸다. 그렇다고 해서 기술을 맹목적으로 찬양하거나, 과장된 공포로 몰아가지 않는다. 대신, 기술의 진짜 가능성과 숨겨진 한계를 동시에 바라보며, AI가 인간을 대체하는 존재인가, 아니면 인간의 판단과 책임을 보완하는 도구인가라는 근본적인 질문을 던진다.
또한 실제 사례를 풍부하게 소개하며, 독자들이 쉽게 이해할 수 있도록 명쾌한 개념 정리를 제시하고, 곳곳에 도표와 시각 자료를 배치해 복잡한 이슈를 쉽고 명쾌하게 풀어낸다. 그 때문에 인공지능에 대해서 잘 모르는 사람도 쉽게 읽을 수 있다.
지금 우리가 해야 할 일은 기술을 무조건 받아들이거나 거부하는 것이 아니다.
우리가 마주한 이 ‘두 얼굴의 신기술’을 정확히 이해하고, 올바르게 다루기 위한 기준을 세우는 것이다. 그 출발점이 바로, 이 책이다.
“AI가 인간처럼 말한다고 해서, 인간처럼 생각하는 것은 아니다.”
하버드대 교수 클레이튼 크리스텐슨의 연구에 따르면, ‘기술이 산업에 미치는 영향은 기존의 상태만큼 좋지는 않더라도 비용 측면에서는 상당한 절감 효과를 가져온다’고 한다. 즉, AI가 불완전하더라도 비용 절감에는 큰 도움이 된다는 뜻이다.
실제로 AI 시스템의 정밀도와 신뢰성이 떨어지더라도, 비용 절감이라는 장점만으로 기존 시스템을 대체할 수 있을까? 단지 비용을 절감하고, 빠르게 출력값을 낸다는 이유로 편향된 결정을 하는 AI를 도입하는 것이 사회에 큰 문제가 되지는 않을까?
이 책에서는 이러한 사람들의 의문에 명쾌한 답을 제시한다. 바로 ‘AI 프레임워크’를 통해서다. ‘AI 프레임워크’는 AI의 입력 제어, 정밀도, 결정 근거의 필요성을 기준으로 AI에 적용할 수 있는 분야와 적용할 수 없는 분야를 나눈다. 그리고 이를 쉽게 설명하는 예시들을 나열해, 사람들이 ‘AI 프레임워크’에 대해 완벽하게 이해할 수 있도록 돕는다.
예를 들어, 전쟁에서 AI가 발포를 결정하는 상황을 떠올려 보자. 이때 우리는 AI에게 이 중요한 것을 맡겨야 할까? 돈과 관련된 사항에서는 어떨까? 금융기관에서 대출 승인을 해주는 업무를 AI에 맡길 수 있을까?
제조업에서 조립 라인을 시각적으로 검사하는 경우는? 자율주행 차량은?
범죄자를 잡기 위한 도구로는? 다양한 마케팅 광고의 도구로서는?
당신이 이 모든 물음에 답을 제대로 할 수 있다면 이 책을 읽을 필요가 없다.
하지만 제대로 답을 하지 못한다면 이 책을 읽어야 한다. AI는 점점 더 우리 삶에 깊숙이 침투할 것이고, 우리는 원하든 원하지 않든, 그들과 공생해야 하기 때문이다.
“기술이 인간을 재정의하는 시대, 우리는 AI를 어떻게 받아들여야 할까?”
새로운 기술의 발견은 항상 예기치 못한 결과를 가져온다. 핵무기를 발명한 오펜하이머가 자신의 발명품이 전쟁에 쓰이자 후회했듯이, 만병통치약으로 쓰인 ‘라듐’이 알고 보니 사람에게 해로운 방사선 물질이었듯이, 좋은 일에는 나쁜 일이 따라올 때가 많다.
AI 또한 그렇다. 맨 처음 AI는 세상을 바꿀 혁신과도 같았으며, 챗GPT가 공개됐을 땐 ‘기계가 인간처럼 행동할 날이 얼마 남지 않았다’며, 과학의 발달을 극찬했다. 그러나 이후 카오스GPT가 등장했고, 그 기계가 처음 취한 행동은 가장 강력한 무기를 찾는 것이었다. 그리고 그 과정에서 실제로 구소련의 핵무기 정보를 발견하고, 폭탄 관련 정보를 수집하기도 했다.
이에 사람들은 두려움을 느끼기 시작했고, 점점 AI에 제한을 두자는 목소리가 나왔다. 그리고 이 사건의 연장선이 돼, AI의 신뢰도 문제, 프라이버시 침해 문제 등으로 현재 사회적인 이슈가 되고 있는 상태다. 이런 상황에서 우리는 어떻게 AI를 현명하고 책임감 있게 사용해야 할까?
명확한 정답을 안다면 그건 ‘신’일 것이다. 하지만 그렇다고 해서 아무 행동도 하지 않으면 사회는 올바른 길로 가지 못한다. 이 책은 이런 점을 역설하며, AI 같은 신기술을 제대로 교육하고, 위험을 관리하며, 기업과 정부 기관의 거버넌스를 통해 제대로 된 가이드라인을 만들자고 한다.
또한, 레이시(RACI) 프레임워크를 통해. 각 조직들의 구체적 책임 소재를 분명히 하며, 인공지능 ID(AII)를 만들어 AI 계정의 모든 행동을 공개적으로 확인할 수 있게 하도록 촉구한다. 인터넷에 접속하는 우리들이 ID를 만들듯이, AI 계정 또한 ID를 보유해 투명성을 부여해야 한다는 것이다.
물론, 이런 일들로 AI의 어두운 면이 사라지지는 않겠지만, 이 정도만 구축하더라도 우리는 더 안전하고 나은 세상을 살 수 있다. 그리고 이것들은, AI 관련 업계뿐만 아니라, 우리 모두가 외치고 원하는 것들이다. 더 밝은 미래를 위해 이 책을 읽어보라. 어떤 어려움도, 그것을 이길 힘은 당신 안에 있으니까.