AI는 인간의 편견을 제거한 공정한 도구로 여겨졌지만, 실제로는 기존의 불평등을 학습하고 재생산하는 새로운 메커니즘이 되고 있다. 이 책은 AI 시대의 평등을 둘러싼 낙관과 현실 사이의 간극을 비판적으로 들여다본다. AI 기술의 범람 속에 평등의 가치를 구현하기 위한 정책, 기술, 시민 사회의 역할을 모색하며 포용적이고 정의로운 디지털 사회를 향한 실천적 비전을 제시한다.
자동화된 불공정의 구조
알고리즘은 복지, 고용, 교육 등 다양한 영역에서 사회적 약자를 구조적으로 배제할 수 있다. 기술적 판단은 객관성을 표방하지만 편향된 데이터와 설계는 차별을 정당화하는 수단이 되기 쉽다. ‘디지털 빈민원’과 같은 개념은 기술을 통한 통제의 현실을 드러낸다.
데이터 권력과 디지털 계급 사회
AI 기술은 일부 기업과 국가에 집중되며 데이터 자본의 독점이 새로운 불평등을 낳는다. 알고리즘 점수화와 감시 체제는 시민을 계층화하고 자기실현적 예언처럼 격차를 고착화할 수 있다. AI가 민주주의와 평등을 위협하는 도구가 될지, 인류 전체의 번영에 기여하는 도구가 될지는 지금 우리의 선택에 달려 있다.
다원적 평등과 포용적 설계
AI 시대의 평등은 자원의 분배를 넘어 역량, 인정, 참여의 평등을 포함해야 한다. 이 책은 기술 설계부터 정책 입안에 이르기까지 다양한 집단의 관점이 반영되어야 하며, 알고리즘의 투명성과 책임성을 제도적으로 확보할 필요가 있음을 제시한다.