AI에 대한 신뢰가 깊어길수록, 특히 전문 영역에서 실패하는 사례들이 등장하고 있죠. "기계가 틀리겠어"라는 생각 때문에, 인간은 자신의 경험과 판단력을 물리고 AI의 선택을 따르게 되는 거죠. 그 결과 AI 시스템이 의사나 항공기 조종사 등 전문직종에서 인간의 숙련도를 낮추는 악영향도 있다고 합니다. 최근 뉴스를 보니 학생들이 자신의 과제를 AI에게 맡기면서 "생각을 외주화"한다는데, 장기적으로 인간의 지적 능력에 어떤 영향을 줄지도 좀 걱정이 됩니다.ㅠ
[김영사/책 증정] 기계가 인간의 실수를 바로잡아준다? <도덕적인 AI> 함께 읽어요!
D-29

김영사

마켓오
"35년 동안 패트리엇을 경험하면서 힘들게 얻은 교훈 중 하나는 충분히 훈련되지 않은 병사들의 손에 들린 자동화 시스템은 사실상 완전 자동화 시스템이라는 것이다."
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.101-인공지능은 안전할 수 있을까?, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

우주먼지밍
“ 적어도 지금 당장은 사람들이 여전히 프라이버시를 소중히 여긴다는 뜻이다. 하지만 바로 여기에 역설이 있다. 사람들은 대부분 데이터가 공유된다는 사실에 짜증과 불편을 느끼면서도 동의 ㅇ벗이 데이터를 공유하는 앱이나 기술의 사용을 중단하려 하지 않는다. 이러한 잘 알려진 패턴은 ‘프라이버시 단념’ 또는 ‘프라이버시 냉소주의’라고 불린다. ”
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p154, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

우주먼지밍
“ 안타깝게도 문제는 남아 있다. 인종 정보를 AI에 직접 제공하지 않더라도 AI가 분석하는 데이터는 여전히 인종 범주와 높은 상관관계가 있는 다른 범주에 대한 정보를 포함할 수 있다. ”
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p179, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

우주먼지밍
“ AI가 편향을 보이는 더 일반적인 이유는 다음과 같다. 인간과 사회 구조가 편향된 경우가 많고, 인간이 설계하고 제작하는 AI에 이러한 편향이 쉽게 내장되기 때문이다. (…) 결과적으로 AI는 다양한 경로를 통해 인간 제작자와 그 제작자가 처한 상황을 반영하게 된다. 요컨대 일부 사람들의 말처럼 “편향이 입력되면 편향이 출력된다” ”
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p161, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

청명하다
이와 달리 오늘날 AI 시스템의 안전 문제에 대한 우려는 AI가 제대로 작동하지 않는 부분에 대한 인식에서 비롯된다.
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.83, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

청명하다
저자가 짚은 것처럼 지금은 충분히 지능적이지 않은 AI를 어떻게 시정할 것인가?에 대한 대응과 방안을 고민해야 하는 단계네요. 영화에서 다루어지는 인간을 넘어선 AI는 아직 추상적이고, 불안감을 조성하지 구체적인 실 천방안을 주는 눈 앞의 문제는 아니라는 생각이 들었습니다.

청명하다
자동차가 자율적으로 운전하는 동안 인간 운전자에게 철저한 경각심 유지를 요구하는 것은 자율주행차의 매력을 상당 부분 감소시킨다는 점이다.
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.93, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

청명하다
AI를 사용한들 결국은 사람이 관리감독을 해야 한다는 게 주된 문제로 읽히네요. 일과 일에 따르는 육체적정신적인 부담을 AI로 대체하려고 하는 건데, 지금 상황에서는 AI를 만들 면서 그보다 더 똑똑한 사람이 필요해졌네요(AI 작동 방식, 구현하는 기계도 알고 동시에 투입되는 분야의 전공지식도 알아야 하는). 그런데 AI 사용으로 인해 사람의 숙련도는 낮아지고..

김영사
청명하다님, 맞아요. AI를 사용할 때 사람의 역할이 여전히 중요하다고 보는 것 같아요. 그런데 저자들은 AI가 사람들의 손에 관리되고, 감독될 수 있는 지금의 상황이 어쩌면 다행일지도 모른다는 얘기를 해요. AI가 우리의 통제에서 벗어나는 상황이 되면 매우 심각한 일이 벌어질 수 있다는 거죠. 그러니까 AI윤리에 대한 담론이 활발해지는 지금이 중요한 순간이라고 보는 것 같아요. 이 시기를 놓치기 말고 신중하게 제도적, 기술적 장치들을 마련해야 할 테죠.

청명하다
말씀해주셨듯이 지금이 바로 AI에 대해 사회적 차원에서 집중적으로 검토해야 할 시기인 것 같습니다. AI는 물론이고 포스트코로나, 플랫폼노동, 데이터사회, 기후위기 등 여러모로 이전의 모더니즘 체제에 균열이 일고, 다음 세상에 대해 고민을 해봐야한다는 이야기가 제기되고 있으니 말이죠. 그렇지만 자유주의에서 개인에게 책임이 쏠리다보니 이런 생각을 모을 여유조차 없어보이는 것도 사실이에요.

마스크가 답하지 못한 질문들 - 코로나19가 남기는 과제인권활동가 미류, 문화인류학자 서보경, 플라스틱 프리 활동가 고금숙, 배달 노동자 박정훈, 홈리스 활동가 최현숙, 노들장애학궁리소 연구활동가 김도현, 영화감독 이길보라, 작가 이향규, 영장류학자 김산하, 정치학자 채효정 10인은 서로 다른 자리에서 코로나19가 드러낸 한국사회의 사각지대를 짚는다.

21세기를 위한 21가지 제언 - 더 나은 오늘은 어떻게 가능한가인류의 과거(사피엔스), 미래(호모 데우스)에 이어 현재를 살펴본다. 과학 분야 전문지식보다는 시사적인 주제를 논한다. 과거-현재-미래 3종 세트 완성.

데이터 사회 비판빅데이터 및 테크놀로지 문화 연구가 이광석 교수는 &t;데이터 사회 비판>을 통해 혁신이라는 의도에만 치중해 그동안 등한시되었던 기술이 어떻게 우리 일상에 영향을 미치고 있는지 되살피면서, 불안한 기술사회에서 살아남기 위한 구체적인 독법을 제안한다.
책장 바로가기
illcat
정부가 얼굴 인식을 통해 자신을 추적하고 처벌할 수 있다는 사실을 알게 된 사람들은 시위와 종교 행사에 섣불리 참여하지 못했다고 보고하기도 했다.
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기
illcat
영화에서나 나올 법한 일들이 실제로 현실화되고 있다는 것을 새삼 깨닫습니다. 이것이 우리의 안전을 위한 일일지 프라이버시를 침해하는 것일지, 쉽게 둘 중 무엇이라고 말하기 어려운 것 같습니다.
illcat
“ 얼굴 인식 AI의 정확도가 밝은 얼굴보가 어두운 얼굴에서 더 낮은 이유도 그래서다. 수많은 얼굴 훈련용 데이터세트가 거의 백인으로 이루어져 있다. AI가 편향을 보이는 더 일반적인 이유는 다음과 같다. 인간과 사회 구조가 편향된 경우가 많고, 인간이 설계하고 제작하는 AI에 그러한 편향이 쉽게 내장되기 때문이다. ”
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기
illcat
보통 인간은 부지불식간이든 일부러든 편향된 사고와 결정을 하기도 하는데 인간이 만든 AI도 마찬가지로 편향된 데이터로 학습하면 편향된 결정을 내릴 수 있는 것 같습니다. 그것의 파급력이 더 커질 것이기 때문에 공정한 AI를 만들고 그것의 결정이 공정하게 이루어질 수 있도록 하는 것이 중요할 것 같습니다.

김영사
AI의 편향성 문제는 꽤나 중요한 부분인 것 같아요. AI가 학습하는 데이터는 사회로부터 추출되는데, 그 사회 자체가 구조적으로 편향적이라면,편향된 결과를 양산한다는 거죠. 이 경우 AI는 불평등을 합리화하고 양산하는 도구가 되는 거죠.ㅠ AI를 어떤 데이터로 학습할지, 또는 기술적으로 어떻게 데이터의 편향성을 교정할지는 중요한 문제가 될 것 같아요.

청명하다
요컨대 대량의 개인정보가 쉽게 수집·예측·결합되는 방대한 생태계가 형성된 책임은 적어도 부분적으로는 AI에 대한 기대감에 있다.
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.144, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

청명하다
AI가 직접적으로 프라이버시를 침해하는 부분말고도 개인정보를 수집하는 생태계의 형성과 같은 간접적인 환경 조성도 짚어줘서 유익하네요. AI 시장을 바라보는 인사이트를 얻어갑니다.
idler
“ 지식을 대상으로 하는 정신모형 접근법과 통계적 상관관계 접근법은 서로 얼마나 다른 걸까? 그 차이는 어느 지점에서 중요해질까? 현재로서는 전혀 알지 못한다. 그렇다는 것은, 대형언어모형이 무엇을 이해하는지 또는 어떤 방식으로 이해하는지에 관하여 적절하게 고찰할 방법이 없다는 뜻이다. 이는 또한 인간과 AI 능력의 간극, 그리고 AI 시스템이 어떤 문제어 어려움을 겪는지를 설명하는 것이 점점 더 까다로워지고 있다는 의미이기도 하다. ”
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 68쪽, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기
idler
좀 뒤처졌습니다만, 서론과 1장을 재미있게 읽었습니다. 인공지능이 무엇을 이해한다는 게 어떤 것인가를 인간의 이해 방식과 비교해 설명하는 대목이 개인적으로는 흥미롭더군요. 대형언어모델이 “마치 개념처럼 작동하는 학습된 상관관계의 그물망 내부에 ‘숨겨진 인과 모형‘을 만들었을 가능성은 분명히 존재”하는데, “그 존재 가능성을 시험할 방법은 아직 없다”(68쪽)는 것도요. 반대로, 인간의 이해란 것도 통계적 상관관계 접근법에 따른 이해 정도에 머무는 경우도 많지 않을까 하는 쓸데 없는 생각도 해봤습니다. 1장 말미에서 간단히 설명한 AI 개발 단계(알고리듬 개발, 모형 훈련, 제품화)별 주체와 그 역학관계가 앞으로의 논의에서 어떤 참조점이 될지도 자못 궁금해집니다.
작성
게시판
글타래
화제 모음
지정된 화제가 없습니다