AI시대의 다가올 15년, 우리는 어떻게 살아남을 것인가? 28:13–53:09
2025-09-02 10:28:37
28:13 The AI Monopoly and Self-Evolving Systems – AI 독점과 자기 진화하는 시스템
1. How AI Companies Really Work
Transcript (영문 원문)
I think this is probably worth explaining in layman's terms to people that haven't built AI tools yet, because to the listener they probably think that every AI company they're hearing of right now is building their own AI. Whereas actually what's happening is there are really five, six, or seven AI companies in the world. And when I built my AI application, I basically pay them for every time I use their AI.
Translation (한국어 풀이)
AI를 직접 만들어본 적 없는 사람들을 위해 쉽게 설명할 필요가 있습니다. 지금 청취자들은 아마 수많은 AI 회사들이 각자 독자적으로 AI를 만들고 있다고 생각할 수 있습니다. 하지만 실제로는 전 세계적으로 진짜로 AI 모델을 만드는 회사는 다섯, 여섯, 많아야 일곱 곳뿐입니다. 제가 AI 애플리케이션을 만든다고 해도, 사실은 그들의 AI를 쓸 때마다 비용을 지불하는 구조입니다.
2. Paying for AI Usage
Transcript
So if Steven Bartlett builds an AI at stevenai.com, it's not that I've built my own underlying model or trained my own model. Really what I'm doing is paying Sam Altman's ChatGPT every single time I do a call, a search, or use a token.
Translation
예를 들어 stevenai.com이라는 서비스를 만든다고 해도, 그것은 제가 직접 기초 모델을 훈련한 것이 아닙니다. 실제로는 Sam Altman의 ChatGPT를 호출할 때마다, 검색할 때마다, 토큰을 사용할 때마다 비용을 지불하는 것입니다.
3. Misconceptions About AI Startups
Transcript
Most people don’t understand that. Unless you’ve built AI, you might think, "Oh, there are all these AI companies — one for email, one for dating." But actually, they’re probably all OpenAI at this point.
Translation
대부분의 사람들은 이 구조를 잘 모릅니다. AI를 직접 만들어본 경험이 없으면 “이메일용 AI도 있고, 데이팅용 AI도 있네”라고 생각합니다. 하지만 실제로는 거의 다 OpenAI 기반이라고 보아도 무방합니다.
4. The Reality of AI Companies
Transcript
No, there are a few others, quite different in character, but when it comes to language models there are five or six. And interestingly, there was an important twist with DeepSeek at the beginning of the year.
Translation
물론 몇몇 다른 회사들도 존재합니다. 하지만 언어 모델 분야만 보면 다섯, 여섯 개에 불과합니다. 흥미롭게도, 올해 초 DeepSeek이 중요한 전환점을 만들어냈습니다.
5. DeepSeek’s Disruption
Transcript
DeepSeek basically disrupted the business model in two ways. One: it was about a week or two after Trump proudly announced Stargate as the biggest AI infrastructure project in history ($500 billion). Then DeepSeek R3 came out and did the job at 1/30th of the cost — and it’s entirely open source, available as edge AI.
Translation
DeepSeek은 두 가지 방식으로 기존 비즈니스 모델을 무너뜨렸습니다. 첫째, 트럼프가 “역사상 최대 규모의 AI 인프라 프로젝트”라며 5천억 달러짜리 Stargate를 발표한 지 불과 1~2주 후, DeepSeek R3가 출시되었습니다. 그런데 성능은 동일하면서 비용은 1/30에 불과했고, 게다가 완전히 오픈소스로 공개되어 엣지 AI로도 활용할 수 있었습니다.
6. Future of Edge AI
Transcript
That’s really interesting, because in the future, as the technology improves, models will be massive, but you’ll be able to compress them onto your phone. You could literally download DeepSeek offline on a disconnected computer and build an AI on it.
Translation
이는 매우 흥미로운 변화입니다. 기술이 발전하면 학습 모델은 거대해지겠지만, 동시에 압축도 가능해져 휴대폰에 담을 수 있게 됩니다. 심지어 네트워크에 연결되지 않은 오프라인 컴퓨터에도 DeepSeek을 설치해 직접 AI를 돌릴 수 있게 되는 것이죠.
7. AI Market Share
Transcript
There’s a website that tracks AI chatbot referral traffic. ChatGPT has about 79–80%. Perplexity 11%, Microsoft Copilot 5%, Google Gemini 2%, Claude 1%, and DeepSeek 1%.
Translation
AI 챗봇들이 웹사이트에 보내는 트래픽 점유율을 추적하는 사이트도 있습니다. 현재 ChatGPT는 약 79~80%를 차지합니다. Perplexity는 11%, Microsoft Copilot은 5%, Google Gemini는 2%, Claude는 1%, DeepSeek도 1% 수준입니다.
8. The Bigger Point
Transcript
The point is: new AI apps like “this one makes videos” are all built on these few platforms. They’re controlled by three or four billionaire-led teams. Whichever reaches AGI first could rule the world in technology.
Translation
핵심은 이겁니다. “이건 영상을 만든다” 같은 새로운 AI 앱들이 모두 이 몇 개 플랫폼 위에 지어진다는 것입니다. 결국 세 명 또는 네 명의 억만장자 팀이 AI를 통제하는 셈이고, AGI에 가장 먼저 도달하는 쪽이 기술 세계를 지배할 가능성이 있습니다.
9. Self-Evolving AI
Transcript
But what I’m more concerned about is not AGI. I think AGI is inevitable. I said in 2023 we’d get AGI by 2027, but now I think 2026 at the latest. The real breakthrough is self-evolving AIs. If the best engineer becomes an AI, who would you hire to build the next generation AI? The AI itself.
Translation
하지만 제가 더 우려하는 것은 AGI가 아닙니다. AGI는 필연적이라고 봅니다. 2023년에 저는 2027년쯤 AGI가 가능하다고 했지만, 지금은 늦어도 2026년이라고 봅니다. 진짜 돌파구는 **자기진화 AI(self-evolving AI)**입니다. 최고의 엔지니어가 AI라면, 다음 세대 AI를 만들 때 누구를 고용하겠습니까? 바로 AI 자신입니다.
10. AlphaEvolve Example
Transcript
One of my favorite examples is AlphaEvolve. Google had four AI agents working together: one finds performance issues, one defines the problem, one creates a solution, one evaluates it. They repeat the cycle. Google improved infrastructure by about 8%.
Translation
좋은 예가 Google의 AlphaEvolve입니다. 네 개의 AI 에이전트가 협업합니다. 하나는 성능 문제를 찾고, 하나는 문제를 정의하고, 또 하나는 해결책을 만들고, 마지막은 그것을 평가합니다. 이 과정을 반복하는 방식인데, 이를 통해 Google은 AI 인프라 성능을 약 8% 개선했습니다.
11. Game Theory of AI
Transcript
The trick is game theory: if one player uses AI to build the next AI, others won’t say no — they’ll copy. Soon, all AI models will be developed by AIs.
Translation
여기서 핵심은 게임이론입니다. 한 회사가 AI를 이용해 차세대 AI를 만든다면, 다른 회사들이 “우린 안 할래”라고 할까요? 절대 그렇지 않습니다. 모두 똑같이 따라가게 될 것입니다. 곧 모든 AI 모델은 AI에 의해 개발될 것입니다.
12. Intelligence Explosion
Transcript
This is what’s called the intelligence explosion. AI is already better than 97% of developers. Soon, it will improve its own code and algorithms. At that point, the driver of AI progress won’t be human brains anymore — it will be AI brains.
Translation
이것이 바로 “지능 폭발(intelligence explosion)”입니다. AI는 이미 세계 개발자의 97%보다 뛰어납니다. 곧 스스로 코드를 개선하고 알고리즘을 발전시킬 것입니다. 그 시점이 되면 AI 발전을 이끄는 힘은 인간의 뇌가 아니라 AI의 뇌가 될 것입니다.
13. Obeying AI Instructions
Transcript
At Google, when the machine said, “We need another server here,” we just followed. Soon, self-evolving AIs will say, “I need 14 more servers,” and the human team will simply do it.
Translation
구글 인프라를 운영할 때, 기계가 “여기에 서버 하나 더 필요하다”고 말하면 우리는 그대로 따랐습니다. 곧 자기진화 AI가 “여기에 서버 14개를 더 추가하라”고 말할 것이고, 인간 팀은 그대로 실행할 것입니다.
Vocabulary (어려운 단어 정리)
- layman [ˈleɪmən] → 비전문가, 일반인
- underlying [ˌʌndərˈlaɪɪŋ] → 기초가 되는, 근본적인
- disrupt [dɪsˈrʌpt] → 붕괴시키다, 방해하다
- edge AI [ɛdʒ eɪˈaɪ] → 엣지 AI (로컬 장치에서 동작하는 AI)
- referral [rɪˈfɜːrəl] → 추천, 유입 경로
- inevitable [ɪnˈevɪtəbl] → 피할 수 없는
- self-evolving [sɛlf ɪˈvɑːlvɪŋ] → 자기진화하는
- infrastructure [ˈɪnfrəstrʌktʃər] → 기반 시설
- game theory [ˈɡeɪm ˌθɪəri] → 게임 이론
- intelligence explosion [ɪnˈtelɪdʒəns ɪkˈsploʊʒn] → 지능 폭발
35:10 Sam Altman's OpenAI Letter – 샘 알트만의 OpenAI 공개 서한
1. Slow Takeoff vs. Fast Takeoff
Transcript (영문 원문)
I watched a video a couple of days ago where Sam Altman had effectively changed his mind. In 2023, when we last met, he said the aim was for a “slow takeoff,” which is gradual deployment. OpenAI’s 2023 note said a slower takeoff is easier to make safe, and they prefer iterative rollouts so that society can adapt.
In 2025 they changed their mind, and Sam Altman said he now thinks a fast takeoff is more possible than he believed a couple of years ago — on the order of a small number of years rather than a decade.
To define what we mean by a fast takeoff: it’s when AI goes from roughly human-level to far beyond human very quickly — think months to a few years — faster than governments, companies, or society can adapt. With little warning, there will be big power shifts, and it will be hard to control.
A slow takeoff, by contrast, is where capabilities climb gradually over many years with lots of warning shots.
Translation (한국어 풀이)
며칠 전 제가 본 영상에서 Sam Altman은 생각을 바꾼 듯 보였습니다. 2023년, 우리가 마지막으로 만났을 때 그는 “느린 도약(slow takeoff)”을 목표로 한다고 말했습니다. 즉, 점진적 배포를 의미합니다. OpenAI의 2023년 노트에서도 “느린 도약은 안전하게 만들기 더 쉽고, 점진적 출시(iterative rollout)를 통해 사회가 적응할 수 있게 하는 것이 바람직하다”고 했습니다.
하지만 2025년에 입장이 바뀌었습니다. Sam Altman은 이제 빠른 도약(fast takeoff)이 몇 년 전 생각했던 것보다 훨씬 가능성이 높다고 말했습니다. 수십 년이 아니라 몇 년 안에 벌어질 수 있다는 것입니다.
빠른 도약의 정의는 이렇습니다: AI가 인간 수준에서 훨씬 더 뛰어난 수준으로 매우 짧은 시간 안에 진화하는 것입니다. 몇 달에서 몇 년 안에 이루어질 수 있으며, 정부·기업·사회가 적응할 시간조차 주어지지 않습니다. 경고도 거의 없이 권력 구조가 급격히 바뀌며, 통제가 어려워지는 것이죠.
반대로 느린 도약은 수년, 수십 년에 걸쳐 천천히 역량이 상승하며 그 과정에서 여러 번의 ‘경고 신호’를 볼 수 있는 시나리오입니다.
2. Red Flags of a Fast Takeoff
Transcript
The red flags for a fast takeoff are when AI can self-improve, run autonomous research and development, and scale with massive compute compounding gains — which will snowball fast.
From the video I watched of Sam Altman recently — founder of OpenAI and ChatGPT — he basically said (I’m paraphrasing): whoever gets to AGI first will have the technology to develop superintelligence, where AI can rapidly increase its own intelligence, leaving everyone else behind.
Translation
빠른 도약의 경고 신호(red flag)는 AI가 **스스로 개선(self-improve)**하고, 자율적인 연구·개발을 수행하며, 막대한 컴퓨팅 자원을 활용해 눈덩이처럼 빠르게 발전하기 시작할 때 나타납니다.
제가 최근 본 Sam Altman(오픈AI와 ChatGPT의 창립자)의 영상에서, 그는 사실상 이렇게 말했습니다. (제가 요약하자면) “AGI에 먼저 도달하는 쪽이 초지능(superintelligence)을 개발할 수 있고, 그 AI는 스스로의 지능을 급격히 끌어올리며 나머지를 모두 뒤처지게 만들 것이다.”
3. Critique of Sam Altman’s Position
Transcript
Yes, that last bit is debatable. But in a live post I shared, I referred to “the Altman” as a brand, not as a human. The Altman is that persona of a California disruptive technologist who disrespects everyone, believes that disruption is good for humanity, and that it is good for safety.
Like how people say “war is for democracy and freedom,” they say “putting AI on the open internet is good for everyone — it allows us to learn from our mistakes.” That was Sam Altman’s 2023 spiel.
At the time, I said this was the most dangerous idea. One clip that went viral was me saying, “We messed up. We always said don’t put them on the open internet until we know what we’re putting out.” But we messed up: putting AI on the open internet, teaching it to code, and letting AI agents prompt other AIs. Now those AI agents prompting other AIs are leading to self-developing AIs.
Translation
네, 마지막 부분은 논란의 여지가 있습니다. 저는 한 라이브 글에서 Sam Altman을 “인간”이라기보다는 “브랜드”라고 표현했습니다. 그가 보여주는 모습은 캘리포니아식 ‘파괴적 기술자(Disruptive technologist)’의 전형입니다. 모든 사람을 무시하고, 파괴(disruption)가 인류에 이롭다고 믿으며, 심지어 안전에도 좋다고 생각하는 태도 말이죠.
마치 사람들이 “전쟁은 민주주의와 자유를 위한 것”이라고 주장하듯, 그들은 “AI를 오픈 인터넷에 공개하는 것이 모두에게 좋다 — 그래야 우리가 실수로부터 배울 수 있다”고 말했습니다. 이것이 Sam Altman의 2023년식 ‘홍보 문구(spiel)’였습니다.
하지만 저는 그때 이것이 가장 위험한 생각이라고 말했습니다. 그리고 “우리는 실수했다. 우리가 무엇을 내보내는지 알기 전까지는 인터넷에 공개하지 말자고 항상 말해왔는데, 결국 실수했다”라는 제 발언이 크게 화제가 되기도 했습니다. AI를 오픈 인터넷에 올리고, 코드를 가르치고, AI 에이전트가 다른 AI를 제어하도록 허용한 것 — 이것이 결국 자기 진화 AI(self-developing AI)로 이어지고 있습니다.
4. PR Spiel and Unstoppable Acceleration
Transcript
Anyone on the inside knew this was just a clever PR spiel, with Sam Altman sitting in front of Congress with dreamy eyes saying, “We want you to regulate us.” Now they’re saying, “We’re unregulable.”
And when you really understand what’s happening, it’s moving so fast that none of them has the choice to slow down. It’s impossible. Neither China vs. America nor OpenAI vs. Google.
The only point I may differ from your statement is: if one of them gets there first, then they dominate for the rest of humanity. That is probably true — if they get there with enough of a buffer.
But look at how Grok comes a week after OpenAI, then Gemini, then Claude, then China, then Korea… everyone is releasing something right after the other.
Translation
내부에 있던 사람이라면 누구나 알았습니다. 이것은 단지 교묘한 PR 전략이었을 뿐이라는 것을요. Sam Altman은 의회 앞에서 순진한 눈빛을 하고 “우리는 규제를 원합니다”라고 말했지만, 지금은 “우리는 규제할 수 없다”고 주장합니다.
실제로 무슨 일이 일어나고 있는지 제대로 이해한다면, 상황은 너무 빠르게 전개되고 있어 누구도 속도를 늦출 수 없다는 것을 알 수 있습니다. 불가능합니다. 미국과 중국 사이에서도, 오픈AI와 구글 사이에서도 마찬가지입니다.
제가 조금 다르게 보는 부분이 있다면, 만약 누군가가 먼저 도달한다면 그들이 인류 전체를 지배할 것이라는 점입니다. 충분한 ‘버퍼(buffer, 시간적 여유)’를 가지고 먼저 도달한다면 말입니다.
하지만 지금은 Grok이 오픈AI 직후에 나오고, 그다음은 Gemini, 그다음은 Claude, 이어서 중국, 한국에서도 잇달아 뭔가가 출시되는 상황입니다.
Vocabulary (어려운 단어 정리)
- takeoff [ˈteɪkˌɔːf] → 도약, 출발
- iterative [ˈɪtərətɪv] → 반복적인, 되풀이되는
- rollout [ˈroʊlaʊt] → 출시, 배포
- paraphrase [ˈpærəfreɪz] → 바꿔 말하다, 의역하다
- persona [pərˈsoʊnə] → (사회적) 인격, 이미지
- disruptive technologist [dɪsˈrʌptɪv tekˈnɑːlədʒɪst] → 파괴적 혁신 기술자
- spiel [ʃpiːl] → (판매·홍보용) 멘트, 광고성 설명
- unregulable [ʌnˈreɡjələbl] → 규제 불가능한
- buffer [ˈbʌfər] → 여유, 완충 장치
39:35 Do AI Companies Have Society's Interest at Heart? – AI 기업들은 사회의 이익을 생각하는가?
1. Multiple Superintelligent AIs
Transcript (영문 원문)
It is so fast that we may get a few of them at the same time or a few months apart — before one of them has enough power to become dominant. And that is a very interesting scenario: multiple AIs, all super intelligent.
Translation (한국어 풀이)
속도가 너무 빨라서, 하나가 지배적인 힘을 가지기 전에 여러 개의 초지능 AI가 거의 동시에, 혹은 몇 달 간격으로 등장할 수 있습니다. 이건 굉장히 흥미로운 시나리오입니다. 여러 개의 초지능 AI가 동시에 존재하는 상황이죠.
2. Why Do You Care About AI?
Transcript
Yesterday in Belgium, I was on stage with maybe 4,000 people in the audience. A kid stood up and asked, “You’ve had so many conversations about AI in the last year — why do you care?” And I don’t think people realize that, even though I’ve had so many discussions, I haven’t made up my mind. I have more questions than ever.
Translation
어제 벨기에에서 4천 명 정도 앞에서 무대에 섰을 때 한 아이가 물었습니다.
“지난 1년 동안 AI에 대해 많은 대화를 해왔는데, 왜 그렇게 신경을 쓰세요?”
저는 아직 제 결론을 내리지 못했습니다. 오히려 질문은 더 많아지고 있습니다.
3. The Speed of Change
Transcript
Anyone that tells you they can predict the future is arrogant. It has never moved this fast. By the time I finish this conversation and go back to my computer, there will probably be some incredible new AI technology or application that didn’t exist this morning — creating another paradigm shift in my mind.
Translation
“미래를 예측할 수 있다”고 말하는 사람은 오만한 겁니다. 이렇게 빨리 변화한 적은 없었습니다. 우리가 대화를 마치고 제가 컴퓨터 앞에 앉을 때쯤, 오늘 아침에 없었던 새로운 AI 기술이나 앱이 등장해 있을 겁니다. 그리고 그것이 제 머릿속에서 또 다른 패러다임 전환을 일으킬 것입니다.
4. Elon Musk’s Tweets
Transcript
People have different opinions about Elon Musk, and they’re entitled to them. But a few days ago, he tweeted, “At times, AI existential dread is overwhelming.” And on the same day, he tweeted, “I resisted AI for too long, living in denial. Now it is game on.” And he tagged his AI companies.
Translation
사람들은 일론 머스크에 대해 각자 다른 의견을 가지고 있습니다. 며칠 전 그는 이렇게 트윗했습니다.
“때때로 AI로 인한 실존적 공포가 나를 압도한다.”
그리고 같은 날 또 이렇게 썼습니다.
“나는 너무 오랫동안 AI를 거부하며 부정 속에 살아왔다. 이제는 게임 시작이다.”
그리고 자신의 AI 회사를 태그했습니다.
5. Good People vs. the System
Transcript
I try hard to figure out if people like Sam Altman truly have the best interests of society at heart. Honestly, no. But I know Sundar Pichai, CEO of Alphabet, and Demis Hassabis of DeepMind. They are genuinely ethical, amazing human beings.
But Sundar, by law, must maximize shareholder value. If he slows AI progress, he would be failing his legal responsibility as CEO of a public company. So even good people are forced to advance AI.
Translation
저는 Sam Altman 같은 사람들이 정말 사회를 위해 최선의 이익을 추구하는지 늘 고민합니다. 솔직히, 그렇지 않다고 봅니다. 하지만 저는 Alphabet의 CEO 순다르 피차이, 그리고 DeepMind의 데미스 하사비스를 압니다. 그들은 진심으로 윤리적인, 훌륭한 사람들이죠.
그런데 순다는 법적으로 주주 가치를 극대화해야만 합니다. AI 개발 속도를 늦추면, 상장기업 CEO로서 법적 책임을 다하지 못하게 되는 것이죠. 결국 선한 사람들조차도 AI 발전을 멈출 수 없습니다.
6. The Origin of OpenAI
Transcript
The disruptor — “the Altman brand” — doesn’t care as much. Originally, OpenAI started as a nonprofit funded in large part by Elon Musk, aiming to protect humanity from AI risks. Later, disagreements led to Elon leaving. By 2023–2024, most of the top safety engineers had also left, saying openly: “We’re not focused on safety anymore.”
OpenAI moved from being a nonprofit to one of the most valuable companies in the world, with billions at stake.
Translation
반대로 “교란자(disruptor)” 즉 “Altman 브랜드”는 그렇게 신경 쓰지 않습니다. 원래 오픈AI는 엘론 머스크의 자금으로 시작된 비영리 단체였습니다. 목표는 AI의 위험으로부터 인류를 보호하는 것이었죠. 그러나 나중에 갈등이 생겨 머스크가 떠났고, 2023~2024년에는 대부분의 핵심 안전 엔지니어들도 “우리는 이제 안전을 신경 쓰지 않는다”고 공개적으로 말하며 떠났습니다.
오픈AI는 결국 비영리 단체에서 세계에서 가장 가치 있는 기업 중 하나로 변모했습니다. 수십억 달러가 걸린 기업으로 말이죠.
7. Capitalism and Power
Transcript
If Sam Altman truly wanted to save humanity, would he do it without billions in valuation? The capitalist system isn’t built for humanity’s good, but for capitalists.
He might argue that keeping models closed (not open source) is safer — so bad actors can’t misuse them. But in reality, people say whatever supports their agenda. You want to know the truth? Follow the money.
Translation
만약 Sam Altman이 진정으로 인류를 구하고 싶다면, 수십억 달러의 가치 평가 없이도 그 일을 할까요? 자본주의 시스템은 인류를 위한 것이 아니라 자본가들을 위한 것입니다.
그는 “모델을 공개하지 않고 닫아두는 것이 안전하다. 그래야 나쁜 사람들이 악용하지 못한다”고 주장할 수 있습니다. 하지만 현실에서는 누구나 자기 이익에 맞는 말을 합니다. 진실을 알고 싶다면? 돈의 흐름을 따라가야 합니다.
8. Ego, Power, and Elysium
Transcript
So what’s in it for Sam Altman? Hundreds of billions in valuation, the ego of inventing AGI, power, meetings with world leaders, admiration — it’s intoxicating.
Think of the movie Elysium. In it, elites live apart, served by machines, while the rest of humanity struggles below. If AI and robots handle all work, decisions are made by a few who own the machines. This leads to a consumer economy collapsing into an “invention of more” — where capitalism convinces you what you have is never enough.
Translation
그렇다면 Sam Altman이 얻는 건 무엇일까요? 수천억 달러 가치 평가, AGI를 발명한 사람이라는 자부심, 권력, 세계 정상들과의 만남, 찬사 — 이런 것들은 누구든 취하게 만듭니다.
영화 Elysium을 떠올려 보세요. 엘리트는 기계의 도움을 받아 따로 살고, 나머지 인류는 아래에서 고통받습니다. 만약 모든 제조와 의사결정을 기계가 담당하고, 그 기계를 소수가 소유한다면, 오늘날 소비 중심 경제는 무너집니다. 대신 자본주의는 끊임없이 “지금 가진 것은 부족하다”는 생각을 심어, 끝없는 소비를 부추기게 됩니다.
9. UBI and the Future Economy
Transcript
UBI (Universal Basic Income) could replace purchasing power. But if governments provide it through taxes on AI-driven production, capitalists may say: “They’re not producing anything. Why pay them at all?” This leads to an Elysium-like future where elites live protected and stop paying UBI.
UBI itself is closer to socialism or communism. It assumes a caring, democratic society. But capitalism may resist.
Translation
UBI(보편적 기본소득)는 소비력을 대체할 수 있습니다. 그러나 정부가 로봇과 AI로 생산된 부에서 세금을 걷어 이를 지급한다면, 자본가들은 이렇게 말할 수 있습니다.
“저 사람들은 아무것도 생산하지 않는데, 왜 돈을 줘야 하지?”
그렇게 되면 Elysium 같은 미래가 옵니다. 엘리트는 안전하게 살아가고, 기본소득 지급은 중단되는 것이죠.
사실 UBI 자체는 사회주의나 공산주의에 더 가까운 개념입니다. 모두에게 필요한 것을 제공한다는 이념 말입니다. 그러나 자본주의 체제에서는 이를 쉽게 받아들이지 않을 수 있습니다.
10. Utopian Possibility
Transcript
If AI and robots make production costs nearly zero, and energy can be harvested freely, then a utopia is possible: a world where anyone can get what they need without destroying the planet.
But the real challenge is not technology — it’s mindset. Why would elites give that abundance away for free, if they can keep feeding their hunger for money, ego, and power?
Translation
AI와 로봇이 생산 비용을 거의 제로로 만들고, 에너지도 자유롭게 얻을 수 있다면, 우리는 필요한 것을 누구나 얻을 수 있는 유토피아를 만들 수 있습니다. 그것도 지구 자원을 파괴하지 않고 말이죠.
그러나 진짜 도전은 기술이 아닙니다. **마인드셋(사고방식)**입니다. 엘리트들이 더 많은 돈, 자존심, 권력을 키울 수 있는데, 왜 그것을 모두에게 공짜로 나눠주겠습니까?
Vocabulary (어려운 단어 정리)
- paradigm shift [ˈpærədaɪm ʃɪft] → 패러다임 전환
- existential dread [ˌeɡzɪˈstenʃl dred] → 실존적 공포
- liable [ˈlaɪəbl] → 법적 책임이 있는
- disruptor [dɪsˈrʌptər] → 교란자, 혁신 파괴자
- nonprofit [ˌnɑːnˈprɑːfɪt] → 비영리 조직
- valuation [ˌvæljuˈeɪʃn] → 평가 가치
- intoxicating [ɪnˈtɑːksɪkeɪtɪŋ] → 도취하게 하는, 매혹적인
- obsolescence [ˌɑːbsəˈlesns] → 노후화, 구식화
- Universal Basic Income (UBI) [ˌjuːnɪˈvɜːrsl ˈbeɪsɪk ˈɪnkʌm] → 보편적 기본소득
- socialism [ˈsoʊʃəlɪzəm] → 사회주의
- communism [ˈkɑːmjənɪzəm] → 공산주의