@장맥주 @오도니안 @소피아 사실, 인공지능(AI) 알고리즘이 차별이나 편견을 강화한다는 지적은 수년 동안 여러 차례 나왔던 비판이죠. 캐시 오닐의 『대량살상 수학무기』는 대표적이고요. 캐시 오닐의 책이 2016년에 나왔고, 『노이즈』가 2021년에 나왔으니 그 사이에 이 이슈를 놓고서도 다양한 추가 논의가 있었겠죠. 그 일부가 『노이즈』의 논의에 반영된 것으로 이해했습니다.
저도 이 대목을 읽으면서 이런 생각을 해보긴 했어요. 성차별이나 인종 차별에 찌든 사람의 생각을 바꾸기 보다는 알고리즘의 편향을 조정하는 게 훨씬 더 쉽진 않을까, 하는 생각이요. 9, 10장은 그런 견해를 지지하는 근거들이겠죠.

대량살상수학무기 - 어떻게 빅데이터는 불평등을 확산하고 민주주의를 위협하는가빅데이터 모형은 편견에 사로잡힌 인간보다 공정하며, 개인의 권리와 이익을 보호한다고 알려져 있다. 그러나 현실은 정반대다. 정부, 기업, 사회에 도입된 데이터 기반의 알고리즘 모형들은 인종차별, 빈부격차, 지역차별 등 인간의 편견과 차별, 오만을 코드화해 불평등을 확대하고, 민주주의를 위협하고 있다.
책장 바로가기