좋은 아침입니다!
출근 버스 안에서 서론과 1장을 다 읽었습니다 :)
1장에서는 인공지능의 도덕성이라는 복잡하고 어려운 주제를 탐구하기 전에 반드시 알아야할 AI에 관한 기본개념들을 익힐 수 있어서 좋았습니다. 그간 AI 관련 교양서들 근처에서 서성였는데, 1장을 읽으면서 다시 개념 정리를 했어요 >_<
[김영사/책 증정] 기계가 인간의 실수를 바로잡아준다? <도덕적인 AI> 함께 읽어요!
D-29

우주먼지밍

김영사
오.. 축하드립니다. 금방 1장까지 읽으셨군요. 1장을 읽으면 시중에 나온 AI들이 이용 목적이나 학습 방법에 따라 얼마나 다양한지 실감하게 됩니다.

우주먼지밍
“ 이 책의 논의를 위해 우리는 매우 폭넓은 AI의 정의를 사용하기로 했다. (…)
인간이 규정한 일련의 목표에 대해서 충분히 신뢰할 만하게 예측과 추천 및 결정을 수행하여 실제 또는 가상 환경에 영향을 미치는 기계 기반 시스템. ”
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p28, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

청명하다
1장에서는 AI의 개념을 잡고 AI의 부족한 점을 명쾌하게 집어주네요. "상식이 부족하다"라는 게 첫째로 나와서 웃기면서도, 사람이 지닌 '상식'의 범주가 정말 표현되지 못할 만큼 방대하구나 돌아보게 됩니다. 지식이 아니라 하나하나의 생활규범이랄까요? 말로 안해도 아는 사소한 것을 AI에는 입력해 학습을 해야 한다는 게 쉽지 않아 보여요.

청명하다
“ 일부 AI 연구자와 신경과학자는 인간의 뇌가 우리 몸의 감각에 대한 물리적 지각을 통해 엄청난 양의 학습을 하기 때문에 AI가 이 세상에서 물리적 신체를 가지지 않고서는 인간 수준의 지능에 도달하지 못할 것이라고 믿는다. ”
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.59, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

청명하다
얘기하는 한계 중에 물리적인 상호작용이 AI의 가장 큰 한계라고 생각합니다. 정신과 이성도 중요하지만, 환경에 대응하는 물리적인 신체를 가져야, 다른 존재들과 상호작용하는 감정적인 영역이 있어야 비로소 인간의 지능이라는 영역에 다다를 수 있을 테니까요.
그런 면에서 언급되는 로봇공학의 영역이 AI와 만나야 우리가 생각하는 인간 만큼의 존재, 인간 이상의 기술을 구현할 수 있을 것으로 보입니다. 인간이 못하는 일, 궂은 일을 대신하는 기계가 아니라 또 다른 개체를 탄생시키는 것에 대해서는 개인적으로 의문이 있긴 하지만요!

김영사
청명하다님, 재밌는 대목을 짚어주셨네요. 저도 책에서 인용하신 대목을 읽고 무릎을 쳤습니다.(아..진짜 무릎을 치진 않았습니다^^;) 저희 팀에서 로봇에 관한 책을 준비 중인데, 다니엘라 루스라는 MIT 로봇 공학자가 현재 로봇 기술에서 가장 필요한 연구가 바로 '더 나은 센서'라고 보고 있거든요. 단순히 시각적인 정보만이 청각, 후각, 촉각 등 주변의 가치 있는 정보를 최대한 많이 수집할 수 있는 것이 미래 로봇 연구의 과제라고 합니다. 그래서 지금 로봇에게 피부를 닮은 센서를 장착해서 촉각 능력을 강화하려는 연구가 꽤 활발한 것 같습니다. 말씀처럼 다른 존재와 상호작용하는 수준까지 기술이 발전할지는 모르겠지만요.

청명하다
오! 로봇이라면 자연스러운 움직임을 만드는 것만 생각했는데, 더 나은 센서의 개발도 중요한 부분이군요. 준비하고 계신 책도 흥미로워 보입니다 ;)

김영사
예, 인공지능 발전 덕분에 훨씬 로봇 개발에서 다양한 진보가 이뤄지고 있는 것 같아요. 저희 책의 주제로 돌아오면, 자율주행차와 드론 같은 로봇들이 점점 현실에서 많이 쓰이고 있고, 안전성과 책임성을 두고 논란이 계속 불거지고 있는 것 같아요. 당연하지만, 저자들은 이런 기술들을 현실 세계로 도입하기 전에 그 위험성을 미리 예상하고 개입할 수 있는 과정을 꼭 넣어야 한다고 강조하고 있습니다.
화제로 지정된 대화

김영사
내일부터 <도덕적인 AI> 독서모임 2주차가 시작됩니다^^ 2주차에는 3~5장을 읽습니다. AI가 불러온 새로운 유형의 프라이버시 문제를 다룬 3장, AI의 편향 문제를 다룬 4장(특히 판사가 범죄자의 보석 판결에 활용 중인 ‘범죄 위험성 평가도구’에 대한 논란/ "편향이 입력되면 편향이 출력된다"), 자율주행차의 실제 사고 사례를 통해 인공지능의 책임 문제를 다룬 5장입니다. 앞서 2장까지는 다소 개론의 성격이었다면, 개인적으로는 3~5장은 큰 지루함 없이 읽으실 수 있을 거라고 생각합니다. 실제 사례를 다루기 때문에 훨씬 피부에 와닿고, 저자들이 던지는 질문과 쟁점을 다루는 수준에서도 내공(?)이 느껴집니다. 책이 생각보다 좀 어렵다고 느끼셨던 분들도 있으셨을 텐데, 2주차는 좀더 부담 없이 읽으실 수 있을 거라고 생 각합니다. 흥미를 끄는 대목이나, 생각거리를 주는 문장, 가벼운 질문들, 무엇이든 환영합니다! 좋은 말씀 나눠주세요~

우주먼지밍
[3장 | 인공지능은 프라이버시를 존중할 수 있을까]를 읽다가 제가 바로 프라이버시 냉소주의에 빠진 사람들 중 한 명이구나 싶었어요. 반쯤 체념한 우스개소리로 ‘개인정보는 공공정보다’라고들 말하는데요, 빅테크 기업들의 기상천외한 개인정보 수집과 유출, 그에 대한 솜방망이 처벌과 처벌규정의 미흡을 보면서 그런 프라이버시 단념을 하고 있었나봐요.
저자는 프라이버시 침해가 AI 사용에 따른 불가피한 결과는 결코 아니라고 하며, 프라이버시를 지식의 추구 및 혁신과 대립하는 것으로 바라보는 문화는 받아들일 필요가 없다고 강조합니다.
저는 이 대목을 읽으면서 이 문화를 개선하기 위해서는 제도적 규제가 선행되는 것이 먼저라고 생각하는 사람이기에, 책의 남은 장들에서 저자가 제도적 개선에 어떠한 의견을 가지고 어떠한 구체적인 주장을 개진할지 궁금해졌어요.

김영사
우주먼지밍님처럼, 별 생각 없이 쓰는 AI 도구들을 통해 개인정보가 빅테크 기업으로 들어가고, 그 정보가 이런저런 상업적 목적에 쓰인다고 생각하면 괜히 찝찝한(?) 기분입니다. 책을 보면, 빅테크 기업들은 사람들의 데이터를 다른 기업들에 대규모로 '공유하는 형식'을 빌려서 법망을 피한다고 합니다. 최근 챗gpt를 이용해 수많은 사람이 지브리풍의 생성형 이미지를 7억 장 넘게 만들었는데, 그때 올렸던 개인들의 사진 데이터가 과연 어떻게 사용될지는 아무도 알 수 없을 것 같습니다. ㅠ
다만, 책에는 AI윤리 관점에서 정부기관이 대책을 마련해야 한다고 주장하고 있긴 한데, 그 해법을 구체적으로 제시하고 있진 않은 것 같습니다. 아마도 저자들은 이런 프라이버시를 둘러싼 논쟁점을 갈무리해서, 지금 문제가 되는 것이 무엇인지 보여주는 역할에 충실하려는 것 같아요.

청명하다
오! 1주차를 읽으면서 저는 생각보다 쉽게 쓰였다고 느꼈습니다 :) 물론 분야가 달라서 생소한 용어나 개념도 있지만, 번역서라고 생각이 들지 않을 정도로 매끄럽고, 단락별로 구분해주셔서 논쟁 지점들이 명확하게 눈에 들어왔거든요. 게다가 실제 사례에 기반을 두고 있어서 현학적이지 않은 것이 가장 큰 장점이라고 생각합니다. 주말에 2주차 진도 열심히 나가볼게요~
오늘하루도
AI 시스템이 인간을 능가하는 성능을 발휘하는 경우는 대체로 인간이 얻는 것보다 훨씬 많은 데이터를 학습할 때다.
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.55, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기
오늘하루도
그렇기 때문에 인간은 한 번만 접해도 많은 것을 배울 수 있도록 진화한 것이다. AI는 여전히 이런 '원샷 학습' 또는 '퓨삿 학습'에 어려움을 겪는다.
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.56, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

마켓오
2장을 보면 전문성을 지닌 AI를 컨트롤한다는 것이 얼마나 어려운지 새삼 깨닫게 되네요. 요즘 SNS를 보면 AI로 만들어낸 인물이 등장하는 영상이 종종 보이는데, 말하는 내용은 이상하더라도 사람은 정말 자연스러워서 깜짝 놀랄 때가 있습니다. 다양한 사례가 나와서 흥미로웠어요^^

김영사
AI에 대한 신뢰가 깊어길수록, 특히 전문 영역에서 실패하는 사례들이 등장하고 있죠. "기계가 틀리겠어"라는 생각 때문에, 인간은 자신의 경험과 판단력 을 물리고 AI의 선택을 따르게 되는 거죠. 그 결과 AI 시스템이 의사나 항공기 조종사 등 전문직종에서 인간의 숙련도를 낮추는 악영향도 있다고 합니다. 최근 뉴스를 보니 학생들이 자신의 과제를 AI에게 맡기면서 "생각을 외주화"한다는데, 장기적으로 인간의 지적 능력에 어떤 영향을 줄지도 좀 걱정이 됩니다.ㅠ

마켓오
"35년 동안 패트리엇을 경험하면서 힘들게 얻은 교훈 중 하나는 충분히 훈련되지 않은 병사들의 손에 들린 자동화 시스템은 사실상 완전 자동화 시스템이라는 것이다."
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p.101-인공지능은 안전할 수 있을까?, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

우주먼지밍
“ 적어도 지금 당장은 사람들이 여전히 프라이버시를 소중히 여긴다는 뜻이다. 하지만 바로 여기에 역설이 있다. 사람들은 대부분 데이터가 공유된다는 사실에 짜증과 불편을 느끼면서도 동의 ㅇ벗이 데이터를 공유하는 앱이나 기술의 사용을 중단하려 하지 않는다. 이러한 잘 알려진 패턴은 ‘프라이버시 단념’ 또는 ‘프라이버시 냉소주의’라고 불린다. ”
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p154, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기

우주먼지밍
“ 안타깝게도 문제는 남아 있다. 인종 정보를 AI에 직접 제공하지 않더라도 AI가 분석하는 데이터는 여전히 인종 범주와 높은 상관관계가 있는 다른 범주에 대한 정보를 포함할 수 있다. ”
『도덕적인 AI - 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』 p179, 월터 시넛 암스트롱.재나 셰익 보그.빈센트 코니처 지음, 박초월 옮김
문장모음 보기
작성
게시판
글타래
화제 모음
지정된 화제가 없습니다