AI의 편향성 문제는 꽤나 중요한 부분인 것 같아요. AI가 학습하는 데이터는 사회로부터 추출되는데, 그 사회 자체가 구조적으로 편향적이라면,편향된 결과를 양산한다는 거죠. 이 경우 AI는 불평등을 합리화하고 양산하는 도구가 되는 거죠.ㅠ AI를 어떤 데이터로 학습할지, 또는 기술적으로 어떻게 데이터의 편향성을 교정할지는 중요한 문제가 될 것 같아요.
[김영사/책 증정] 기계가 인간의 실수를 바로잡아준다? <도덕적인 AI> 함께 읽어요!
D-29

김영사

청명하다
요컨대 대량의 개인정보가 쉽게 수집·예측·결합되는 방대한 생태계가 형성된 책임은 적어도 부분적으로는 AI에 대한 기대감에 있다.
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.144, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

청명하다
AI가 직접적으로 프라이버시를 침해하는 부분말고도 개인정보를 수집하는 생태계의 형성과 같은 간접적인 환경 조성도 짚어줘서 유익하네요. AI 시장을 바라보는 인사이트를 얻어갑니다.
idler
“ 지식을 대상으로 하는 정신모형 접근법과 통계적 상관관계 접근법은 서로 얼마나 다른 걸까? 그 차이는 어느 지점에서 중요해질까? 현재로서는 전혀 알지 못한다. 그렇다는 것은, 대형언어모형이 무엇을 이해하는지 또는 어떤 방식으로 이해하는지에 관하여 적절하게 고찰할 방법이 없다는 뜻이다. 이는 또한 인간과 AI 능력의 간극, 그리고 AI 시스템이 어떤 문제어 어려움을 겪는지를 설명하는 것이 점점 더 까다로워지고 있다는 의미이기도 하다. ”
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 68쪽, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기
idler
좀 뒤처졌습니다만, 서론과 1장을 재미있게 읽었습니다. 인공지능이 무엇을 이해한다는 게 어떤 것인가를 인간의 이해 방식과 비교해 설명하는 대목이 개인적으로는 흥미롭더군요. 대형언어모델이 “마치 개념처럼 작동하는 학습된 상관관계의 그물망 내부에 ‘숨겨진 인과 모형‘을 만들었을 가능성은 분명히 존재”하는데, “그 존재 가능성을 시험할 방법은 아직 없다”(68쪽)는 것도요. 반대로, 인간의 이해란 것도 통계적 상관관계 접근법에 따른 이해 정도에 머무는 경우도 많지 않을까 하는 쓸데 없는 생각도 해봤습니다. 1장 말미에서 간단히 설명한 AI 개발 단계(알고리듬 개발, 모형 훈련, 제품화)별 주체와 그 역학관계가 앞으로의 논의에서 어떤 참조점이 될지도 자못 궁금해집니다.

김영사
저도 이 책에서 매우 흥미를 느낀 대목입니다. "인간의 이해란 것도 통계적 상관관계 접근법에 따른 이해 정도에 머무는 경우도 많지 않을까"라는 물음도 여러 가지 생각거리를 주는 질문일 것 같아요. 인간이 무언가를 ‘이해한다’는 행위는 단순한 정보 처리라기보다는 욕구에서 출발한 의미 구성 과 정으로 볼 수 있다는 주장을 봤어요. 다른 얘기지만, 예전에 최재천 교수가 동물이 상대에게 '말'을 하는 이유는 무언가를 원하기 때문이라고 합니다. 아쉬운 것이 없으면 그냥 침묵할 테죠. 특히 아이들의 말에서는 분명한 의도가 느껴지죠. 그리고 그런 욕구가 어떤 점에는 개개인의 이해를 구성하는 것 아닐까, 저는 생각합니다. 챗gpt가 내놓는 답에는 '답을 내놔야 한다'는 목표 말고는 의도랄 게 없어 보입니다. 흔히 '영혼 없는 말' '형식적인 말'을 한다고 핀잔하곤 하는데.. 인공지능의 생성물에도 의도가 담겨 있지 않기 때문에, 저는 인간의 것과 다르다고 생각해요.(너무 주관적인 생각일까요^^; 어렵네요.) 여러분의 생각은 어떠신가요?
오늘하루도
편향이 입력되면 편향이 출력된다.
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.161, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기
오늘하루도
AI가 편향성이 최대한 없어질 수 있도록 다양한 데이터를 넣어서 공정하게 만들도록 해야할 것 같다는 생각이 들었습니다.
OCR (광학문자인식)의 경우, 책에 있는 글자를 인식하는 것 뿐만 아니라 캘리그라피(calligraphy)의 문자도 잘 인식할 수 있어야 하고 여러 사람의 손글씨도 잘 인식 할 수 있어야 문자인식의 정밀도가 높아집니다.
보편적인 데이터 뿐만 아니라 이상값(outlier)의 데이터가 많을 수록 AI도 좀 더 공정해지지 않을까 생각해 봅니다.

김영사
데이터의 편향성 문제는 이 책에서 중요하게 다루는 주제 중 하나입니다. 말씀하신 것처럼 이상값의 데이터들이 충분히 포함되면 이 문제를 완화할 수도 있겠다는 생각도 듭니다. 한편으로는, 기존 데이터의 편향을 제거하는 방법도 시도되는 것 같습니다. 예를 들면, 기존 데이터에서 우리가 사회적 차별로 인식하는 범주(인종, 지역, 성별, 학력 등)의 값을 통계적으로 지운 데이터로 AI를 학습하는 방법입니다. 저희가 읽지 않은 6장에서 다루겠지만, 신장 이식 대상자를 고르는 AI의 경우에는, 그 선정 기준에 대한 시민들의 판단을 설문 조사해서 그것을 데이터로 활용하는 방법을 제시하고 있습니다. 특정 이슈에 맞춤 설계된 데이터를 확보하는 것인데, 방대하고 편향 없는 데이터를 구하기 힘든 경우라면 꽤 현실적인 방안으로 보였습니다.

청명하다
인간과 사회 구조가 편향된 경우가 많고, 인간이 설계하고 제작하는 AI에 그러한 편향이 쉽게 내장되기 때문이다.
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.161, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

청명하다
앞서 @오늘하루도 님께서 수집해주신 대목과도 통하는 부분인데요, AI로 출력되는 결과의 편향성 문제를 통해 인간 사회의 편향성에 대해서 다시금 주목하게 됩니다. 편향된 데이터 혹은 그로 인해 도출된 결과는 어떻게 제어하거나 수정할 수 있을까요? 부족한 데이터 파이를 모은다고 하면 돈도 돈일뿐더러 개인정보의 문제를 안아야 하겠고요. 어떤 그룹에 대한 통계가 유의미한 것은 맞더라도 이를 근거로 개인의 미래까지 판단할 수 있는가 하는 문제도 심사숙고해보아야 할 것 같습니다.

청명하다
모형은 인종과 같은 '보호' 특징을 포함하여 각 특징에 대한 '가중치'를 학습하게 된다.
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.180, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

청명하다
사람의 역사와 마찬가지로 끈임없이 사회의 차별을 시정하려는 사람들의 선한 의도와 노력을 통해 AI에게 주어진 편향성을 보정할 수밖에 없겠다는 생각이 듭니다.

김영사
예 청명하다님 고민에 동감합니다. 공정한 사회를 만드는 것은 모든 공동체의 목표일 것 같습니다. 저자들이 AI 개발자들에게 윤리적인 고민을 거듭 요청하는 것도, 새롭게 떠오르는 '도덕적인 AI 기술'(인간의 도덕적 판단을 보조하는 의사결정 도구)에 주목하는 것도 일종의 공동체를 위한 책임으로 보입니다. 저자들은 이런 기술의 도입이 사회를 더 공정하게 만들 수 있을 것이라고 기대하는데, 그렇게 사회가 공정해지면 그 공동체의 편향성도 줄어들고, 결국 선순환이 일어날 수 있을 것 같네요.^^; 저는 '도덕적인 AI'가 여느 공학기술 못지않게 강력한 기술로 보이는데, 우리 사회에 많은 생각거리를 던져주기 때문인 것 같아요. 사실 이 부분은 책의 하이라이트에 해당하는데, 내일부터 3주차 읽기로 시작하는 6장을 미리 읽어보셔도 좋을 것 같습니다!

청명하다
우리는 아직 모든 상황에서 AI를 공정하게 적용하는 방법을 찾지 못했다. 하지만 적어도 AI는 해결되어야 할 불공정성이 무엇인지 드러내고 있다.
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.189, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기
화제로 지정된 대화

김영사
어느새 독서모임 3주차가 밝았습니다. 시간이 성큼성큼 흘러가는 것 같습니다. 이번 주에는 6~7장(+결론)을 읽습니다(아직 앞 장들을 읽고 계신 분들도 있을 텐데요, 조금만 더 힘내주시고 읽은 내용에 관해 편하게 말씀해주세요~).
앞에서 AI의 안정성, 프라이버시, 공정성과 관련된 도덕적 문제를 다뤘는데, 이제 이 책에서 핵심이 되는 6장을 읽을 참입니다. 6장은 AI가 그와 같은 윤리적 문제들을 식별하도록 학습시키려면 어떤 방법을 쓸 수 있을지 설명하는 내용입니다. 하향식 접근법(높은 수준의 도덕 원칙을 제시하고, AI가 그 원칙을 구체적인 사례에 적용하는 방식: 가령 ‘거짓말을 하면 안 된다’ 등)과 상향식 접근법(인간이 도덕적으로 선하거나 악하다고 판단하는 행동과 결정을 구체적인 사례를 통해 학습하는 방식) 두 가지 방식이 설명되고, 저자들은 두 접근법의 장점을 취하고자 합니다. 책은 신장 이식 대상자의 우선순위를 선정하는 시스템을 자세히 설명하면서 ‘도덕적인 AI’의 실현 가능성과 확장 가능성을 보여줍니다.
12장은 우리 사회와 AI 제작자들이 인공지능을 윤리적으로 사용하기 위해 참고할 수 있는 지침을 제시하고 있습니다. 기술의 보급, 조직 관행, 교육, 시민 참여, 공공 정책 등의 주요 영역에서 꼭 필요하다고 보는 지침들인데, AI 개발자나 정책 입안자, 교육자들에게 요긴한 내용일 것 같습니다. 이번 3주차 내용을 살펴보면서, ‘도덕적인 AI’ 기술을 궁리하는 저자들의 마음 바탕에는 비단 AI 기술에 대한 안전한 사용뿐 아니라, 우리 사회가 더욱 성숙한 방향으로 나아가길 바라는 마음이 담겨 있음을 느낍니다.
독서 모임을 시작했던 첫 주는 꽤 쌀쌀했던 것 같은데, 이제 봄꽃이 한창이고 낮에는 더운 기운도 물씬합니다. 이 책을 다소 딱딱하고 어렵게 느끼셨을 분들도 있을 것 같지만, 마지막까지 힘내주시고 완독의 즐거움을 맛보시면 좋겠습니다!

센스민트
문제는 우리가 기술을 추구했는지의 여부가 아니라 기술을 추구한 방식에 있다.
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.315, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

청명하다
수집해주신 부분을 저도 한 번 더 밑줄을 긋습니다!

청명하다
우버의 AI에 도덕적인 책임이 있을까? 일부 제한적인 측면에서 그럴 수 있다는 것이 우리 셋의 공통된 생각이다.
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.219, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

청명하다
앞에서 차근차근 쌓아왔던 AI에 대한 지식들을 바탕으로 책의 제목인 '도덕성'을 따지는 6장이네요! AI를 만든 사람, 허가한 사람이 아니라 AI 자체에 책임을 물을 수 있는가 질문합니다. 생각지 못했던 부분인데, 아직 저에게는 AI가 '기계'나 '소프트웨어' 정도로 인식되었나봐요. AI가 인간처럼 판단하고 행동할 수 있다면 마찬가지로 책임도 부과할 수 있다는 게 자연스러운데 말이죠.
작성
게시판
글타래
화제 모음
지정된 화제가 없습니다