블랙박스 AI를 넘어 투명한 미래로
인공지능은 높은 성능을 자랑하지만 의사결정 과정의 불투명성, 즉 블랙박스 문제로 심각한 사회적 위험을 초래할 수 있다. 의료, 금융, 법률 등 고위험 분야에서 오류와 편향이 드러나면서 알고리즘의 투명성과 설명 가능성 확보가 시급해졌다. 이 책은 블랙박스 AI의 문제점을 짚고, 이를 극복하기 위한 설명 가능 인공지능(XAI) 기술을 소개한다. 인간이 이해할 수 있는 설명을 제공하고, 공정성, 책임성, 신뢰성을 확보하는 방법을 다룬다.
또한 국내외 주요 법제 흐름과 함께, 기능적·설명적·사회적 측면에서 XAI의 핵심 역할을 체계적으로 분석한다. AI 기술이 일상에 깊숙이 스며든 지금, AI의 투명성과 신뢰성을 확보하는 방법은 필수적 과제가 되었다.기술 개발자, 정책 입안자, 비전문가 모두에게 설명 가능 인공지능의 필요성과 방향을 제시한다.