1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:18,727 --> 00:00:23,690
‎"필멸자들의 삶에
‎저주 없는 광대함은 없다"

4
00:00:23,773 --> 00:00:27,861
‎"소포클레스"

5
00:00:31,156 --> 00:00:34,659
‎네, 우선 앉아 보세요
‎자리가 편한지 앉아 봐요

6
00:00:37,579 --> 00:00:38,580
‎괜찮아요? 네

7
00:00:38,663 --> 00:00:39,497
‎네

8
00:00:43,043 --> 00:00:44,419
‎테이크 1, 마커

9
00:00:46,880 --> 00:00:48,923
‎자기 소개부터 하고 싶어요?

10
00:00:50,467 --> 00:00:53,344
‎안녕, 세상
‎베일리야, 테이크 3

11
00:00:53,970 --> 00:00:56,056
‎- 괜찮아요?
‎- 전 이런 게 제일 싫어요

12
00:00:57,515 --> 00:00:58,516
‎마음에 안 들어요

13
00:00:59,851 --> 00:01:02,228
‎2011, 2012년에
‎페이스북에서 일했어요

14
00:01:02,312 --> 00:01:05,190
‎저는 초창기 인스타그램의
‎직원이었어요

15
00:01:05,273 --> 00:01:08,693
‎저는 구글, 유튜브에서 일했어요

16
00:01:08,777 --> 00:01:11,696
‎애플, 구글, 트위터, 팜

17
00:01:12,739 --> 00:01:15,533
‎모질라랩 창업을 도왔고
‎파이어폭스로 옮겨갔어요

18
00:01:15,617 --> 00:01:17,994
‎지금 촬영 중이야? 다들...

19
00:01:18,078 --> 00:01:18,953
‎좋아

20
00:01:21,206 --> 00:01:26,169
‎전 트위터에서 일했습니다
‎엔지니어링 수석 부사장이었죠

21
00:01:27,462 --> 00:01:29,255
‎전 핀터레스트 회장이었습니다

22
00:01:29,339 --> 00:01:32,717
‎그전에는 페이스북에서
‎수익 창출 이사로

23
00:01:32,801 --> 00:01:34,260
‎5년간 있었습니다

24
00:01:34,344 --> 00:01:37,972
‎트위터에서는 몇 년 동안
‎그들의 개발 플랫폼을 지휘했어요

25
00:01:38,056 --> 00:01:40,225
‎그러다 소비자 상품
‎책임자가 되었죠

26
00:01:40,308 --> 00:01:44,270
‎저는 구글 드라이브와
‎지메일 챗의 공동 개발자고

27
00:01:44,354 --> 00:01:46,689
‎페이스북 페이지와
‎좋아요 버튼도 만들었습니다

28
00:01:47,440 --> 00:01:50,777
‎네, 이래서 8개월 동안
‎변호사들과

29
00:01:50,860 --> 00:01:52,779
‎계속 이야기를 했던 거예요

30
00:01:54,030 --> 00:01:55,406
‎진짜 적응 안 되네요

31
00:01:58,409 --> 00:02:02,914
‎거기 있을 때는 그게
‎선을 위한 힘이라고 느껴졌는데

32
00:02:03,456 --> 00:02:05,375
‎지금도 그런지는 모르겠어요

33
00:02:05,458 --> 00:02:10,588
‎저는 윤리적 문제로
‎2017년 6월에 구글을 떠났습니다

34
00:02:10,672 --> 00:02:14,134
‎구글뿐만이 아니라
‎업계 전반이 다 그랬어요

35
00:02:14,217 --> 00:02:15,385
‎걱정이 많이 되네요

36
00:02:16,719 --> 00:02:17,679
‎아주 많이요

37
00:02:19,097 --> 00:02:21,808
‎이 도구들이 실제로

38
00:02:21,891 --> 00:02:27,814
‎놀라운 것들을 이뤄냈다는 걸
‎잊기가 정말로 쉽습니다

39
00:02:27,897 --> 00:02:31,943
‎헤어진 가족을 만나게 했고
‎장기 기증자도 찾았어요

40
00:02:32,026 --> 00:02:35,613
‎의미 있는 시스템적인 변화가

41
00:02:35,697 --> 00:02:37,866
‎전 세계에서 일어나고 있었어요

42
00:02:37,949 --> 00:02:40,201
‎이런 플랫폼들 때문에요
‎긍정적이었죠

43
00:02:40,827 --> 00:02:44,539
‎우린 그 동전의 앞면에
‎너무 혹했던 거예요

44
00:02:45,540 --> 00:02:48,585
‎이런 것들은 공개하자마자
‎생명을 얻게 돼요

45
00:02:48,668 --> 00:02:52,005
‎그리고 사용자들의 사용 방법은
‎우리의 예상과 많이 다릅니다

46
00:02:52,088 --> 00:02:56,509
‎이런 결과를 의도한 사람은
‎정말 아무도 없을 거예요

47
00:02:56,885 --> 00:02:59,554
‎거대한 흑막은 없어요, 절대로요

48
00:03:01,639 --> 00:03:03,600
‎그럼 뭐가 문제죠?

49
00:03:09,230 --> 00:03:11,357
‎무슨 문제가 있나요? 뭐가 문제죠?

50
00:03:18,406 --> 00:03:20,158
‎간단하게 말하기가 힘드네요

51
00:03:20,241 --> 00:03:22,118
‎다른 많은 문제들을
‎다루려고 하다 보니까요

52
00:03:22,577 --> 00:03:23,578
‎뭐가 문제죠?

53
00:03:28,208 --> 00:03:32,253
‎"NETFLIX 오리지널 다큐멘터리"

54
00:03:33,588 --> 00:03:35,340
‎쏟아지는 비판에도 불구하고

55
00:03:35,423 --> 00:03:37,675
‎거대 IT 기업들은
‎더욱 커지고 있습니다

56
00:03:37,759 --> 00:03:40,929
‎IT 산업 전체가 새로운 차원의
‎감사를 받고 있습니다

57
00:03:41,012 --> 00:03:43,806
‎그리고 정신 건강과
‎소셜 미디어 사용의 관계를

58
00:03:43,890 --> 00:03:46,142
‎조명하는 새로운 연구가
‎진행 중인데

59
00:03:46,226 --> 00:03:48,478
‎최근 연구에 대해 말씀해 주실...

60
00:03:49,187 --> 00:03:51,397
‎그런데 아무도 이야기를 안 해요

61
00:03:51,481 --> 00:03:54,108
‎수천만 명의 미국인들이
‎그들의 전자 기기에

62
00:03:54,192 --> 00:03:56,319
‎심각하게 중독되어 있는데 말이죠

63
00:03:56,402 --> 00:03:59,364
‎말 그대로 거품 속에
‎자신을 고립시킬 수 있다는 게

64
00:03:59,447 --> 00:04:00,698
‎"사진에 태그되었습니다"

65
00:04:00,782 --> 00:04:02,742
‎더 심해지고 있어요
‎우리의 기술 덕분에 말이죠

66
00:04:02,825 --> 00:04:04,577
‎가짜 뉴스가 더욱 발전하고

67
00:04:04,661 --> 00:04:06,788
‎전 세계를 위협하고 있습니다

68
00:04:06,871 --> 00:04:10,333
‎12년 전에 트위터를 만들었을 때
‎이런 건 전혀 예상하지 못했습니다

69
00:04:10,416 --> 00:04:12,502
‎러시아의 사이버 공격이

70
00:04:12,585 --> 00:04:14,754
‎멈추는 일은 없을 것이라고 합니다

71
00:04:14,837 --> 00:04:18,132
‎유튜브는 강제적으로
‎사이트 정화에 힘을 쏟고 있습니다

72
00:04:18,216 --> 00:04:21,552
‎틱톡에서 유소년들과
‎이야기를 했다면

73
00:04:21,636 --> 00:04:24,013
‎걔들이 그걸 지울 일은
‎절대 없을 거예요

74
00:04:24,097 --> 00:04:26,266
‎아일라, 테이블 준비 좀 해 줄래?

75
00:04:26,349 --> 00:04:27,517
‎소셜 미디어가 아이들을

76
00:04:27,600 --> 00:04:29,978
‎우울하게 만드는지에 대한
‎의문이 떠오르고 있습니다

77
00:04:30,061 --> 00:04:32,105
‎아일라, 테이블 준비해 줘

78
00:04:32,188 --> 00:04:35,316
‎10대들에게 화장품의 인기가
‎엄청나게 높아지고 있고

79
00:04:35,400 --> 00:04:37,902
‎성형외과 의사들은
‎필터를 먹인 셀카와

80
00:04:37,986 --> 00:04:40,822
‎닮기를 원하는 젊은 환자들과
‎스냅챗 이형증이라는

81
00:04:40,905 --> 00:04:43,741
‎새로운 증후군을 만들어냈습니다

82
00:04:43,825 --> 00:04:45,910
‎그러게 스마트폰을
‎못 갖게 했어야지

83
00:04:45,994 --> 00:04:47,537
‎그럼 어떡해?

84
00:04:47,620 --> 00:04:49,580
‎다른 친구들은 다 있다잖아

85
00:04:50,164 --> 00:04:51,165
‎쟨 겨우 11살이야

86
00:04:51,249 --> 00:04:52,959
‎캐스, 아무도 강요하는 사람 없어

87
00:04:53,042 --> 00:04:55,086
‎원하는 만큼 단절되어 지내도 돼

88
00:04:55,169 --> 00:04:59,340
‎휴대폰 없어도 연결되어 있거든
‎지금 인터넷에 접속해 있다고

89
00:04:59,424 --> 00:05:03,094
‎그리고 그건 연결도 아니야
‎그저 쓸모없는...

90
00:05:03,177 --> 00:05:06,514
‎감시 자본주의는 많은 이들이
‎인지하지 못하는 방식으로

91
00:05:06,597 --> 00:05:08,308
‎우리의 정치, 문화에
‎영향을 끼치고 있습니다

92
00:05:08,391 --> 00:05:10,101
‎ISIS가 팔로워들을 선동하고

93
00:05:10,184 --> 00:05:12,812
‎백인 우월주의자들도
‎똑같이 하고 있습니다

94
00:05:12,895 --> 00:05:14,147
‎최근에 인도에서는

95
00:05:14,230 --> 00:05:17,442
‎인터넷 린치 마피아들이
‎여러 명을 살해했는데...

96
00:05:17,525 --> 00:05:20,361
‎단순한 가짜 뉴스로 끝나지 않고
‎파문을 일으키고 있습니다

97
00:05:20,445 --> 00:05:24,073
‎가짜 뉴스의 시대에
‎어떻게 전염병을 다루죠?

98
00:05:24,157 --> 00:05:26,993
‎중국 음식을 먹으면
‎코로나바이러스에 걸리나요?

99
00:05:27,535 --> 00:05:32,540
‎우린 정보화 사회에서
‎허위 정보의 사회로 넘어왔습니다

100
00:05:32,623 --> 00:05:34,667
‎우리 민주주의가
‎공격받고 있습니다

101
00:05:34,751 --> 00:05:38,254
‎제가 말했던 건
‎우리가 만들었던 도구가

102
00:05:38,338 --> 00:05:41,799
‎사회의 사회 구조를
‎침식하기 시작했다는 겁니다

103
00:06:00,151 --> 00:06:03,446
‎아사가 환영 인사를 하고
‎우리가 영상을 틀어요

104
00:06:04,197 --> 00:06:07,325
‎그리고 소개하는 거죠
‎'여러분, 트리스탄 해리스입니다'

105
00:06:07,408 --> 00:06:08,826
‎- 네
‎- 좋아요

106
00:06:08,951 --> 00:06:12,038
‎그럼 제가 올라와서...

107
00:06:12,121 --> 00:06:13,748
‎"인간적인 기술에 대한
‎새로운 의제"

108
00:06:13,831 --> 00:06:16,042
‎와 줘서 고맙다는 말을 하는 거죠?

109
00:06:17,919 --> 00:06:22,048
‎우리는 오늘 기술에 대한
‎새로운 의제에 대해 얘기할 건데

110
00:06:22,131 --> 00:06:25,468
‎그 이유가 뭐냐면
‎요즘 사람들에게 물어보세요

111
00:06:25,551 --> 00:06:27,804
‎요즘 IT 산업에서
‎뭐가 잘못된 거냐고 말이죠

112
00:06:28,346 --> 00:06:31,641
‎불만의 불협화음과 스캔들이 있고

113
00:06:31,724 --> 00:06:33,893
‎데이터 절도와 기술 중독도 있고

114
00:06:33,976 --> 00:06:35,978
‎가짜 뉴스, 분극화와

115
00:06:36,062 --> 00:06:37,688
‎선거도 해킹되고 있습니다

116
00:06:38,189 --> 00:06:41,609
‎하지만 이 동시다발적인
‎문제들의 이면에

117
00:06:41,692 --> 00:06:44,654
‎그 원인이 있는 걸까요?

118
00:06:46,447 --> 00:06:48,408
‎- 어때요?
‎- 아주 좋아요

119
00:06:50,827 --> 00:06:52,954
‎제가 하려는 건...
‎사람들에게 보여 주...

120
00:06:53,037 --> 00:06:55,206
‎IT 산업에서
‎일어나는 문제가 있는데

121
00:06:55,289 --> 00:07:00,211
‎이름은 없지만 하나의 소스에서...

122
00:07:05,091 --> 00:07:09,387
‎주변을 돌아보면
‎세상이 미쳐가는 것 같아요

123
00:07:12,765 --> 00:07:15,143
‎이게 정상인지 자문해 봐야 합니다

124
00:07:16,102 --> 00:07:18,771
‎아니면 우리가 전부
‎마법에 걸렸는지 말이죠

125
00:07:22,316 --> 00:07:25,153
‎"트리스탄 해리스
‎구글의 전 디자인 윤리학자"

126
00:07:25,236 --> 00:07:27,905
‎"인간적 기술 센터 공동 창업자"

127
00:07:27,989 --> 00:07:30,491
‎더 많은 사람들이
‎이해했으면 좋겠습니다

128
00:07:30,575 --> 00:07:34,036
‎IT 산업에서만
‎알아야 하는 게 아니거든요

129
00:07:34,120 --> 00:07:36,289
‎모두가 알아야만 하는 겁니다

130
00:07:47,383 --> 00:07:48,301
‎- 안녕하세요
‎- 안녕

131
00:07:48,843 --> 00:07:50,595
‎- 트리스탄입니다, 반가워요
‎- 트리스탄이죠?

132
00:07:50,678 --> 00:07:51,721
‎- 네
‎- 좋아요

133
00:07:53,181 --> 00:07:55,933
‎트리스탄 해리스는
‎구글의 전 디자인 윤리학자인데

134
00:07:56,017 --> 00:07:59,353
‎실리콘 밸리에서 양심에
‎가장 가까운 존재라 불립니다

135
00:07:59,437 --> 00:08:00,730
‎그는 IT 산업에게

136
00:08:00,813 --> 00:08:04,192
‎상품에 '윤리적인 디자인'을
‎추가할 것을 요구하고 있습니다

137
00:08:04,275 --> 00:08:06,903
‎IT 업계 사람이
‎직설적인 경우는 드물지만

138
00:08:06,986 --> 00:08:10,114
‎누군가는 이래야 한다고
‎트리스탄 해리스는 믿습니다

139
00:08:11,324 --> 00:08:12,700
‎제가 구글에 있을 때

140
00:08:12,783 --> 00:08:15,786
‎지메일 팀에 있었는데
‎굉장히 지치더라고요

141
00:08:16,120 --> 00:08:18,372
‎대화를 너무 많이 했거든요

142
00:08:19,457 --> 00:08:23,169
‎수신함의 모양과 색깔에 대해서요

143
00:08:23,252 --> 00:08:25,880
‎그리고 개인적으로
‎이메일에 중독되는 것 같았고

144
00:08:26,297 --> 00:08:27,632
‎그 누구도 덜 중독적으로

145
00:08:27,715 --> 00:08:31,511
‎만들려고 하지 않는 것에
‎흥미를 느꼈습니다

146
00:08:31,969 --> 00:08:34,514
‎그래서 이랬죠
‎'나만 이런 생각을 하나?'

147
00:08:34,597 --> 00:08:36,390
‎'왜 이런 얘기는 못 들은 거지?'

148
00:08:36,849 --> 00:08:41,229
‎그래서 IT 업계 전반에서
‎불만을 느꼈습니다

149
00:08:41,312 --> 00:08:43,147
‎길을 잃은 것 같았거든요

150
00:08:46,817 --> 00:08:49,820
‎저는 내부에서
‎바꿀 방법을 찾기 위해

151
00:08:49,904 --> 00:08:52,573
‎정말 고민을 많이 했습니다

152
00:08:55,201 --> 00:08:58,120
‎그래서 프레젠테이션을
‎만들기로 했어요

153
00:08:58,204 --> 00:08:59,497
‎반향을 일으키려고요

154
00:09:00,998 --> 00:09:04,669
‎매일 집에 가서
‎두어 시간씩 작업을 했습니다

155
00:09:06,170 --> 00:09:11,884
‎역사상 단 한 번도
‎50명의 캘리포니아의 20, 35세의

156
00:09:12,426 --> 00:09:15,263
‎백인 남성 디자이너들이

157
00:09:15,888 --> 00:09:19,725
‎20억 명의 사람들에게
‎영향을 끼친 적이 없었습니다

158
00:09:21,018 --> 00:09:24,438
‎20억 명의 사람들은
‎그들의 아침을 깨우는

159
00:09:24,522 --> 00:09:28,401
‎알림 설정을 만든
‎구글의 디자이너 때문에

160
00:09:28,484 --> 00:09:30,778
‎전혀 새로운 생각을 하게 됐습니다

161
00:09:31,153 --> 00:09:35,283
‎구글에겐 그 문제를 해결해야 하는
‎도덕적인 책임이 있는 거죠

162
00:09:36,075 --> 00:09:37,743
‎그리고 이 프레젠테이션을

163
00:09:37,827 --> 00:09:41,789
‎구글의 가까운 동료
‎15, 20명에게 보냈습니다

164
00:09:41,872 --> 00:09:44,667
‎굉장히 긴장됐어요
‎어떤 반응이 올지 몰랐으니까요

165
00:09:46,460 --> 00:09:48,045
‎다음 날 출근을 해 보니

166
00:09:48,129 --> 00:09:50,464
‎대부분의 노트북에
‎제 프레젠테이션이 떠 있었어요

167
00:09:50,548 --> 00:09:52,049
‎"주목"

168
00:09:52,133 --> 00:09:54,552
‎그날 오후에는 동시 접속자가
‎400명이나 됐고

169
00:09:54,635 --> 00:09:57,388
‎그 수는 계속해서 늘어났어요
‎회사 곳곳에서 이메일도 받았고요

170
00:09:58,180 --> 00:10:00,266
‎모든 부서의 사람들이 이랬어요

171
00:10:00,349 --> 00:10:02,852
‎'완전히 동의해요
‎아이가 영향받는 게 보이거든요'

172
00:10:02,935 --> 00:10:06,856
‎'주변 사람들도 그렇고요
‎우리가 뭔가를 해야 해요'

173
00:10:07,481 --> 00:10:10,818
‎마치 제가 혁명에 불씨를
‎당긴 것만 같았죠

174
00:10:11,861 --> 00:10:15,197
‎나중에 래리 페이지가
‎그날 제 프레젠테이션에 대해서

175
00:10:15,281 --> 00:10:17,116
‎세 번의 다른 회의에서
‎들었다는 걸 알았습니다

176
00:10:17,950 --> 00:10:20,369
‎구글이 진지하게 다뤄야만 하는

177
00:10:20,870 --> 00:10:23,205
‎문화적인 움직임을 만들어낸 거죠

178
00:10:26,000 --> 00:10:27,460
‎그러다가...

179
00:10:28,461 --> 00:10:29,337
‎그게 다였어요

180
00:10:34,300 --> 00:10:36,135
‎2006년에 우리 모두는...

181
00:10:37,219 --> 00:10:39,055
‎페이스북도 포함해서요

182
00:10:39,305 --> 00:10:43,392
‎구글과 구글이 이룬 것에
‎감탄하고 있었습니다

183
00:10:43,476 --> 00:10:47,396
‎굉장히 유용한 서비스로

184
00:10:47,480 --> 00:10:51,192
‎우리가 알기에는
‎세상에 좋은 일도 많이 했고

185
00:10:51,525 --> 00:10:54,695
‎황금알을 낳는
‎시스템을 만들었습니다

186
00:10:55,404 --> 00:11:00,034
‎그게 정말 부러웠습니다
‎그리고 정말 우아했고

187
00:11:00,826 --> 00:11:02,161
‎완벽해 보였어요

188
00:11:02,953 --> 00:11:05,122
‎페이스북은 2년 차를
‎맞고 있었는데

189
00:11:05,873 --> 00:11:08,376
‎저는 페이스북에 맞는
‎비즈니스 모델을 찾기 위해

190
00:11:08,459 --> 00:11:10,586
‎그들에게 고용되어 있었습니다

191
00:11:10,961 --> 00:11:13,422
‎저는 수익 창출 이사였는데
‎이런 거였어요

192
00:11:13,506 --> 00:11:16,592
‎'어떻게 수익을 낼지
‎당신이 알아내야 해'

193
00:11:17,134 --> 00:11:19,804
‎많은 사람들이 많은 일을 했지만

194
00:11:19,887 --> 00:11:25,476
‎그들을 지휘하는
‎사람들 중 하나가 저였고

195
00:11:26,769 --> 00:11:28,437
‎돈을 버는 게 최우선 목표였습니다

196
00:11:29,313 --> 00:11:33,651
‎가장 우아한 광고 모델도
‎찾으면서요

197
00:11:43,077 --> 00:11:44,453
‎엄마가 어떤 영상을 보냈지?

198
00:11:44,537 --> 00:11:47,873
‎토크쇼 영상인데
‎꽤 괜찮아, 좀 천재 같더라

199
00:11:47,957 --> 00:11:50,584
‎소셜 미디어 삭제를 얘기하던데
‎너도 좀 지워야지?

200
00:11:50,668 --> 00:11:52,878
‎엄마 이메일을 차단해야겠어

201
00:11:52,962 --> 00:11:56,090
‎무슨 말을 하는 건지 모르겠네
‎엄마가 나보다 더 심하잖아

202
00:11:56,173 --> 00:11:58,592
‎- 레시피 찾을 때만 쓰는데?
‎- 일할 때도 쓰잖아

203
00:11:58,676 --> 00:12:00,511
‎- 운동 영상도 보고
‎- 우리 감시도 하지

204
00:12:00,594 --> 00:12:02,680
‎여태 만났던 사람들의 삶도
‎전부 엿보면서 말이야

205
00:12:04,932 --> 00:12:07,893
‎우리 방송을 보면서
‎소셜 미디어 피드를 보고 있다면

206
00:12:07,977 --> 00:12:11,731
‎당장 스마트폰을
‎내려두고 잘 들어요

207
00:12:11,814 --> 00:12:14,817
‎왜냐하면 우리의 다음 손님이
‎소셜 미디어가 우리의 삶을

208
00:12:14,900 --> 00:12:18,112
‎얼마나 망쳤는지에 대한
‎멋진 책을 썼거든요

209
00:12:18,195 --> 00:12:19,447
‎모두 환영해 주세요

210
00:12:19,530 --> 00:12:24,452
‎'당장 소셜 미디어를
‎삭제해야 하는 10가지 이유'를 쓴

211
00:12:24,535 --> 00:12:25,786
‎재런 래니어입니다

212
00:12:27,997 --> 00:12:31,834
‎구글이나 페이스북 같은 회사는
‎역사상 가장 부유하고

213
00:12:31,917 --> 00:12:33,544
‎성공한 회사들입니다

214
00:12:34,295 --> 00:12:36,839
‎직원은 상대적으로 적지만

215
00:12:36,922 --> 00:12:40,468
‎거대한 컴퓨터로
‎돈을 갈퀴로 쓸어담거든요

216
00:12:41,510 --> 00:12:45,222
‎그들은 왜 돈을 벌까요?
‎이게 정말 중요한 질문이죠

217
00:12:47,308 --> 00:12:49,977
‎저는 35년 동안
‎IT 산업에 투자를 했습니다

218
00:12:51,020 --> 00:12:54,356
‎첫 50년 동안 실리콘 밸리는
‎상품을 만들었습니다

219
00:12:54,440 --> 00:12:58,402
‎하드웨어, 소프트웨어를 파는
‎단순한 사업이었죠

220
00:12:58,486 --> 00:13:01,447
‎지난 10년 동안
‎실리콘 밸리의 거대 회사들은

221
00:13:01,530 --> 00:13:03,866
‎자신들의 사용자들을
‎파는 사업을 했습니다

222
00:13:03,949 --> 00:13:05,910
‎지금 말하기엔 좀 진부하지만

223
00:13:05,993 --> 00:13:09,205
‎우리는 우리가 사용하는
‎상품에 돈을 내지 않고

224
00:13:09,288 --> 00:13:12,166
‎광고주들이
‎우리가 쓰는 상품에 돈을 냅니다

225
00:13:12,249 --> 00:13:14,084
‎광고주가 고객인 거죠

226
00:13:14,710 --> 00:13:16,086
‎팔리는 건 우리고요

227
00:13:16,170 --> 00:13:17,630
‎이런 말이 있어요

228
00:13:17,713 --> 00:13:21,592
‎'상품의 대가를 치르지 않으면
‎네가 상품이다'

229
00:13:21,675 --> 00:13:23,302
‎"네가 상품이다"

230
00:13:23,385 --> 00:13:27,223
‎많은 사람들이 이렇게 생각해요
‎구글은 그저 검색 엔진이고

231
00:13:27,306 --> 00:13:30,601
‎페이스북은 친구들의 사생활과
‎사진을 볼 수 있는 곳이라고요

232
00:13:31,185 --> 00:13:33,020
‎하지만 사람들이 모르는 건

233
00:13:33,729 --> 00:13:35,481
‎당신의 관심을 놓고
‎그들이 경쟁한다는 겁니다

234
00:13:36,524 --> 00:13:41,111
‎페이스북, 스냅챗, 트위터
‎인스타그램, 유튜브

235
00:13:41,195 --> 00:13:45,282
‎이런 회사들은 사람들의 눈을
‎계속 잡아 두려고 합니다

236
00:13:46,283 --> 00:13:49,578
‎그들은 사용자의 관심을
‎최대한으로 끌

237
00:13:49,662 --> 00:13:50,955
‎방법을 찾으려 고민합니다

238
00:13:51,455 --> 00:13:53,374
‎얼마나 많은 시간을 쓰게 할까?

239
00:13:53,874 --> 00:13:56,669
‎인생의 몇 퍼센트나
‎우리에게 바치게 할까?

240
00:13:58,712 --> 00:14:01,090
‎이런 회사들이
‎돌아가는 방식을 보면

241
00:14:01,173 --> 00:14:02,424
‎이해가 됩니다

242
00:14:03,050 --> 00:14:06,095
‎공짜처럼 보이는 서비스가
‎인터넷에 많이 있는데

243
00:14:06,178 --> 00:14:09,473
‎공짜가 아니에요
‎광고주가 돈을 대는 거죠

244
00:14:09,557 --> 00:14:11,559
‎왜 광고주가
‎그런 회사들에게 돈을 줄까요?

245
00:14:11,642 --> 00:14:14,687
‎우리에게
‎광고를 보여 주기 위해서예요

246
00:14:14,770 --> 00:14:15,729
‎우리가 상품인 거예요

247
00:14:15,813 --> 00:14:18,357
‎우리의 관심이 광고주에게
‎상품으로 팔리는 거죠

248
00:14:18,816 --> 00:14:20,442
‎그건 너무 단순해요

249
00:14:20,818 --> 00:14:23,654
‎개인의 점진적이고 눈에 띄지 않는

250
00:14:23,737 --> 00:14:26,282
‎행동과 인식의 변화가
‎상품인 것입니다

251
00:14:26,365 --> 00:14:27,575
‎"행동과 인식의 변화"

252
00:14:27,950 --> 00:14:30,244
‎바로 그게 유일한 상품이에요

253
00:14:30,327 --> 00:14:33,789
‎다른 건 상품이라고
‎할 만한 게 없죠

254
00:14:34,164 --> 00:14:36,834
‎그들이 돈을 벌 수 있는
‎유일한 수단이니까요

255
00:14:37,668 --> 00:14:39,253
‎당신의 행동을 바꾸고

256
00:14:39,336 --> 00:14:41,714
‎사고방식과
‎정체성을 바꾸는 거예요

257
00:14:42,631 --> 00:14:45,301
‎아주 점진적인 변화예요

258
00:14:45,384 --> 00:14:48,971
‎누군가에게서 천만 달러를 받고

259
00:14:49,054 --> 00:14:54,310
‎세상을 원하는 방향으로
‎1% 바꿔 주겠다고 하는 거예요

260
00:14:54,894 --> 00:14:58,188
‎세상을 말이에요, 정말 놀랍고
‎엄청나게 많은 돈이죠

261
00:14:59,315 --> 00:15:00,149
‎그래요

262
00:15:00,691 --> 00:15:04,570
‎모든 사업이 늘 꿈꾸던 일이에요

263
00:15:04,653 --> 00:15:10,910
‎성공이 보장된
‎광고 공간을 갖는 것 말이죠

264
00:15:11,327 --> 00:15:13,996
‎그게 그들의 사업이에요
‎확실성을 파는 거죠

265
00:15:14,079 --> 00:15:14,914
‎"확실성"

266
00:15:14,997 --> 00:15:17,625
‎그쪽 업계에서 성공하려면

267
00:15:17,708 --> 00:15:19,585
‎선견지명이 필요해요

268
00:15:19,668 --> 00:15:20,544
‎"선견지명"

269
00:15:20,628 --> 00:15:24,173
‎선견지명에는
‎꼭 필요한 것이 있습니다

270
00:15:25,215 --> 00:15:26,926
‎방대한 양의 데이터죠

271
00:15:27,009 --> 00:15:29,053
‎"데이터"

272
00:15:29,136 --> 00:15:31,555
‎많은 사람들이
‎이걸 감시 자본주의라고 부릅니다

273
00:15:31,639 --> 00:15:34,350
‎광고주들의 성공을 위해서

274
00:15:34,433 --> 00:15:38,062
‎모든 사용자들을
‎무제한으로 추적하는

275
00:15:38,145 --> 00:15:39,605
‎비즈니스 모델을 가진

276
00:15:39,772 --> 00:15:42,858
‎거대 IT 기업들의
‎자본주의 말이에요

277
00:15:42,942 --> 00:15:45,569
‎이건 새로운 시장이에요

278
00:15:45,653 --> 00:15:48,072
‎예전에는 없었던 시장이죠

279
00:15:48,822 --> 00:15:55,371
‎인간이 선물로 거래되는
‎시장인 것이에요

280
00:15:56,372 --> 00:16:01,585
‎삼겹살 선물 시장이나
‎원유 선물 시장처럼

281
00:16:02,127 --> 00:16:07,591
‎지금 우리에겐 인간이 선물로
‎거래되는 대규모 시장이 있어요

282
00:16:08,175 --> 00:16:13,472
‎그리고 인터넷 회사들은
‎그 시장에서

283
00:16:14,014 --> 00:16:19,269
‎수조 달러를 벌어들여
‎인류의 역사상

284
00:16:19,353 --> 00:16:22,356
‎가장 부유한 회사들이 된 겁니다

285
00:16:27,444 --> 00:16:31,073
‎제가 사람들이 알았으면 하는 건
‎우리의 모든 온라인 활동이

286
00:16:31,156 --> 00:16:34,326
‎감시되고, 추적되고
‎측량된다는 것입니다

287
00:16:35,035 --> 00:16:39,623
‎당신의 모든 행동이
‎세심히 관찰되고 기록됩니다

288
00:16:39,707 --> 00:16:43,836
‎무슨 이미지를
‎얼마나 오래 봤는지도 말이죠

289
00:16:43,919 --> 00:16:45,796
‎네, 정말 얼마나
‎오래 봤는지도 기록해요

290
00:16:45,879 --> 00:16:47,548
‎"Naviya_R, 활동 시간"

291
00:16:47,631 --> 00:16:49,341
‎"Ryan_M, 활동 시간"

292
00:16:49,425 --> 00:16:50,426
‎"Wren_F, 활동 시간"

293
00:16:50,509 --> 00:16:53,804
‎사람들이 외로워하거나
‎우울해 하는 것도 알아요

294
00:16:53,887 --> 00:16:57,099
‎사용자가 전 애인의 사진을 보면
‎알 수 있는 거죠

295
00:16:57,182 --> 00:17:00,019
‎밤에 뭘 하는지도 알고
‎모르는 게 없어요

296
00:17:01,270 --> 00:17:03,230
‎내성적인지 외향적인지

297
00:17:03,313 --> 00:17:06,817
‎어떤 신경증을 갖고 있는지
‎성격은 어떤지도 다 알고요

298
00:17:08,193 --> 00:17:11,613
‎그들은 우리에 대한 정보를
‎우리는 상상도 할 수 없을 정도로

299
00:17:11,697 --> 00:17:14,324
‎많이 갖고 있습니다

300
00:17:14,950 --> 00:17:16,368
‎전례 없는 일이죠

301
00:17:18,579 --> 00:17:22,791
‎이 모든 데이터가
‎항상 쏟아지고 있습니다

302
00:17:22,875 --> 00:17:26,754
‎인간의 간섭이
‎거의 전무한 시스템으로 말이죠

303
00:17:27,463 --> 00:17:30,883
‎그리고 우리가 무엇을 할 것이며

304
00:17:30,966 --> 00:17:33,552
‎우리가 누구인지
‎점점 더 잘 예측하고 있습니다

305
00:17:34,887 --> 00:17:36,346
‎"추천 목록"

306
00:17:36,430 --> 00:17:39,558
‎많은 사람들은 그런 데이터가
‎팔린다고 오해하고 있어요

307
00:17:40,350 --> 00:17:43,187
‎그런 데이터를 포기하는 건
‎페이스북의 관심사가 아닙니다

308
00:17:45,522 --> 00:17:47,107
‎그 데이터로 뭘 하는 걸까요?

309
00:17:51,070 --> 00:17:54,490
‎그들은 우리의 행동을
‎예측하는 모델을 만들고

310
00:17:54,573 --> 00:17:57,618
‎최고의 모델을 가진 이가
‎승리하는 겁니다

311
00:18:02,706 --> 00:18:04,041
‎스크롤 속도가 느려졌어

312
00:18:04,124 --> 00:18:07,002
‎평균 사용 시간이
‎거의 다 되었어, 광고 줄여

313
00:18:07,086 --> 00:18:08,337
‎친구, 가족의 사진을 끌어와

314
00:18:09,671 --> 00:18:11,340
‎마치 화면 반대편에

315
00:18:11,423 --> 00:18:15,469
‎우리를 본뜬 인형이
‎그들에게 있는 것 같아요

316
00:18:16,845 --> 00:18:18,180
‎우리가 한 모든 것들

317
00:18:18,263 --> 00:18:19,473
‎우리가 클릭한 모든 것들

318
00:18:19,556 --> 00:18:21,642
‎우리가 모든 영상들과
‎좋아요를 눌렀던 것들로

319
00:18:21,725 --> 00:18:25,354
‎점점 더 정확한 모델을
‎만들고 있는 겁니다

320
00:18:25,896 --> 00:18:27,481
‎그런 모델이 있으면

321
00:18:27,564 --> 00:18:29,858
‎사용자의 행동을
‎예측할 수 있게 되죠

322
00:18:30,234 --> 00:18:31,777
‎좋아, 시험해 보자고

323
00:18:32,569 --> 00:18:33,487
‎어디로 갈 건지

324
00:18:33,570 --> 00:18:36,115
‎어떤 종류의 영상을 더 볼 건지
‎예측할 수 있고

325
00:18:36,198 --> 00:18:39,159
‎어떤 감정이 당신을 자극하는지도
‎예측할 수 있어요

326
00:18:39,243 --> 00:18:40,410
‎그래, 완벽해

327
00:18:41,578 --> 00:18:42,788
‎올해의 가장 큰 실패로군

328
00:18:43,747 --> 00:18:44,665
‎"가장 큰 실패!"

329
00:18:48,627 --> 00:18:51,088
‎- 완벽해, 먹혔어
‎- 다른 비디오 띄울게

330
00:18:51,171 --> 00:18:54,049
‎아주 좋아, 시작 전에
‎신발 광고 끼워 넣자

331
00:18:56,510 --> 00:18:59,721
‎많은 이런 IT 회사에는
‎세 가지 목표가 있습니다

332
00:18:59,805 --> 00:19:03,517
‎시작 목표는 사용자의
‎사용 시간을 늘리는 것이에요

333
00:19:04,601 --> 00:19:06,145
‎그리고 성장 목표는

334
00:19:06,228 --> 00:19:08,647
‎계속 찾게 만들고
‎친구들을 초대하게 해서

335
00:19:08,730 --> 00:19:10,732
‎그 친구들이 친구들을
‎또 초대하게 만드는 겁니다

336
00:19:11,650 --> 00:19:14,987
‎그리고 광고 목표가 있는데
‎광고를 이용해서

337
00:19:15,070 --> 00:19:17,406
‎최대한 많은 돈을
‎벌어들이는 겁니다

338
00:19:19,283 --> 00:19:21,994
‎각각의 목표는
‎수치들을 올리기 위해

339
00:19:22,077 --> 00:19:24,454
‎사용자들의 성향을 파악하는

340
00:19:24,538 --> 00:19:26,165
‎알고리즘에 의해 움직입니다

341
00:19:26,623 --> 00:19:29,918
‎우리는 페이스북에서
‎종종 이야기했어요

342
00:19:30,002 --> 00:19:34,006
‎필요한 만큼
‎조작할 수 있는 것에 대해서요

343
00:19:34,673 --> 00:19:38,594
‎그리고 마크가 조작 권한을
‎갖는 것에 대해서도요

344
00:19:41,305 --> 00:19:44,474
‎'오늘은 한국의 사용자 수가
‎늘었으면 좋겠어'

345
00:19:45,684 --> 00:19:46,602
‎누워서 떡 먹기지

346
00:19:47,436 --> 00:19:49,188
‎'광고를 조금 더 넣자'

347
00:19:49,980 --> 00:19:51,732
‎'이익 창출을 조금만 더 높여'

348
00:19:53,150 --> 00:19:55,444
‎그래서...

349
00:19:55,527 --> 00:19:59,239
‎모든 IT 회사가
‎그 정도는 다 갖추고 있습니다

350
00:19:59,990 --> 00:20:02,409
‎- 야, 어떻게...
‎- 어떻게 안 걸렸는지 모르겠어

351
00:20:02,492 --> 00:20:05,704
‎- 심판이 완전 허수아비였어
‎- 진짜 완전히...

352
00:20:05,787 --> 00:20:07,956
‎- 리베카야, 가서 말 걸어
‎- 누군지 알거든

353
00:20:08,040 --> 00:20:10,834
‎- 가서 말 걸어 보라니까
‎- 노력 중이야

354
00:20:10,918 --> 00:20:14,171
‎지금 쉬는 시간일 건데
‎우리 앱이 꺼져 있어

355
00:20:15,255 --> 00:20:16,465
‎슬쩍 떠밀어 볼까?

356
00:20:17,132 --> 00:20:18,050
‎그래, 떠밀어 봐

357
00:20:21,720 --> 00:20:24,181
‎'네 친구 타일러가 가입했어
‎환영해 주도록 해'

358
00:20:26,016 --> 00:20:27,184
‎제발, 좀

359
00:20:27,267 --> 00:20:28,769
‎환영해 줘

360
00:20:29,394 --> 00:20:31,647
‎노력은 무슨, 가서 말 걸어 봐

361
00:20:31,730 --> 00:20:34,900
‎"네 친구 타일러가 가입했어
‎환영해 주도록 해"

362
00:20:36,902 --> 00:20:37,986
‎"네트워크 연결"

363
00:20:38,070 --> 00:20:40,447
‎새 링크! 좋아, 연결됐어

364
00:20:40,948 --> 00:20:46,078
‎사용자 079044238820
‎리베카의 포스트도 띄워

365
00:20:46,161 --> 00:20:49,790
‎좋은 생각이야, GPS에 따르면
‎지금 둘이 가까이 있어

366
00:20:52,167 --> 00:20:55,837
‎"Rebecca_G
‎쏠메 발견! #절친 #평생친구"

367
00:20:55,921 --> 00:20:57,172
‎광고 볼 준비가 됐군

368
00:20:57,631 --> 00:20:58,632
‎경매 시간

369
00:20:58,715 --> 00:21:00,050
‎"광고 미리 보기
‎딥 페이드 왁스"

370
00:21:00,133 --> 00:21:02,803
‎낙찰! 딥 페이드 왁스

371
00:21:03,387 --> 00:21:07,933
‎468명이 입찰했고
‎3.262센트에 벤에게 팔았어

372
00:21:17,109 --> 00:21:21,530
‎우리는 온라인 연결이
‎더 중요한 세상을 만들었어요

373
00:21:22,072 --> 00:21:23,907
‎특히 젊은 세대들에게 말이죠

374
00:21:23,991 --> 00:21:28,328
‎그리고 그 세계에서
‎두 사람이 연결될 때

375
00:21:29,162 --> 00:21:33,250
‎두 사람의 조종에 돈을 지불하는
‎교활한 제삼자를 통해서만

376
00:21:33,333 --> 00:21:35,627
‎자금이 조달됩니다

377
00:21:36,128 --> 00:21:39,381
‎즉, 우리는 전 세계에서
‎소통과 문화의 의미가

378
00:21:39,464 --> 00:21:44,011
‎조작이라는 맥락 안에서
‎성장하는 세대를

379
00:21:44,094 --> 00:21:47,431
‎만들어내고 만 것입니다

380
00:21:47,514 --> 00:21:49,725
‎우리는 우리가 하는
‎모든 일의 중심에

381
00:21:49,808 --> 00:21:52,311
‎기만과 은밀함을 둔 거예요

382
00:21:55,981 --> 00:22:01,445
‎"충분히 발달한 과학 기술은
‎마법과 구별할 수 없다"

383
00:22:01,528 --> 00:22:05,657
‎"아서 C 클라크"

384
00:22:05,741 --> 00:22:07,242
‎- 다른 걸 잡...
‎- 네

385
00:22:07,326 --> 00:22:09,369
‎- 어디를 잡아야 하죠?
‎- 그렇게 하시면 돼요

386
00:22:09,453 --> 00:22:10,620
‎- 여기요?
‎- 네

387
00:22:10,704 --> 00:22:13,707
‎이렇게 하면 카메라에는
‎어떻게 찍히는 거죠?

388
00:22:13,790 --> 00:22:15,459
‎- 실은 저희가...
‎- 이렇게 말이죠

389
00:22:15,542 --> 00:22:16,835
‎- 뭐죠?
‎- 네

390
00:22:16,918 --> 00:22:18,462
‎- 다시 해 봐요
‎- 그러니까요

391
00:22:19,046 --> 00:22:20,589
‎아니, 이건 좀...

392
00:22:22,466 --> 00:22:23,884
‎그리고 이건 좀 덜...

393
00:22:31,016 --> 00:22:33,268
‎지금 크리스는
‎기절할 것 같은 표정이네요

394
00:22:34,728 --> 00:22:35,562
‎좀 괜찮아요?

395
00:22:35,645 --> 00:22:37,773
‎"마술!"

396
00:22:37,856 --> 00:22:41,068
‎저는 5살 때 마술을 배웠습니다

397
00:22:41,151 --> 00:22:45,781
‎그리고 어른도 속일 수 있었어요
‎박사 학위가 있는 사람도요

398
00:22:55,040 --> 00:22:57,709
‎마술사들은
‎최초의 신경 과학자이자

399
00:22:57,793 --> 00:22:58,960
‎심리학자였어요

400
00:22:59,044 --> 00:23:02,005
‎사람들의 심리가
‎어떻게 작용하는지

401
00:23:02,089 --> 00:23:03,382
‎최초로 이해했거든요

402
00:23:04,216 --> 00:23:07,260
‎그들은 실시간으로
‎사람들에게 많은 실험을 했습니다

403
00:23:09,137 --> 00:23:11,139
‎마술사들은 이해하는 거예요

404
00:23:11,223 --> 00:23:14,017
‎우리는 알지도 못하는
‎심리의 일면을 말이죠

405
00:23:14,101 --> 00:23:15,936
‎그래서 환각이 이뤄지는 겁니다

406
00:23:16,019 --> 00:23:20,607
‎의사, 변호사, 비행기 엔지니어나
‎핵미사일을 만드는 사람들도

407
00:23:20,690 --> 00:23:24,361
‎자신의 심리가
‎얼마나 취약한지 모릅니다

408
00:23:24,444 --> 00:23:26,113
‎별도로 훈련을 해야 하죠

409
00:23:26,571 --> 00:23:28,990
‎그리고 그건 모든 사람에게
‎다 적용됩니다

410
00:23:29,074 --> 00:23:30,909
‎"스탠퍼드 대학교"

411
00:23:30,992 --> 00:23:34,079
‎그런 관점에서 보면
‎기술이 뭘 하고 있는지에 대해

412
00:23:34,162 --> 00:23:35,580
‎다르게 이해할 수 있습니다

413
00:23:36,873 --> 00:23:41,044
‎전 스탠퍼드 설득 기술 연구소에서
‎그런 것들을 배웠습니다

414
00:23:41,628 --> 00:23:43,463
‎사람들을 설득하는 심리학에 대해

415
00:23:43,547 --> 00:23:45,882
‎우리가 아는 모든 것들을

416
00:23:45,966 --> 00:23:48,385
‎어떻게 기술과 접목했을까요?

417
00:23:48,468 --> 00:23:50,887
‎관객 중 많은 분이 이미 천재예요

418
00:23:50,971 --> 00:23:55,851
‎하지만 제 목적은 여러분을
‎행동 변화의 천재로 만드는 겁니다

419
00:23:56,852 --> 00:24:01,148
‎실리콘 밸리의 저명한 인사들이
‎그 수업을 많이 들었습니다

420
00:24:01,231 --> 00:24:05,485
‎페이스북, 우버와 다른 회사들의
‎주요 인물들이

421
00:24:05,569 --> 00:24:09,197
‎더 설득력 있는 기술을
‎만드는 법을 배웠죠

422
00:24:09,614 --> 00:24:10,782
‎트리스탄도 거기 있었죠

423
00:24:12,284 --> 00:24:16,580
‎설득 기술은
‎누군가의 행동을 바꾸기 위해

424
00:24:16,663 --> 00:24:18,874
‎극단적으로 설계된 디자인입니다

425
00:24:18,957 --> 00:24:20,542
‎사용자가
‎특정한 행동을 하게 만들고

426
00:24:20,625 --> 00:24:23,336
‎스크롤을
‎멈출 수 없게 하려고 말이죠

427
00:24:23,420 --> 00:24:26,256
‎새로 고침을 하면
‎새로운 게 제일 위에 뜰 겁니다

428
00:24:26,339 --> 00:24:28,508
‎새로 고침을 하면 또 달라지고요
‎매번 말이죠

429
00:24:28,592 --> 00:24:33,722
‎심리학에서는 그걸
‎간헐적 정적 강화라고 합니다

430
00:24:33,805 --> 00:24:37,142
‎언제 뜰지도 모르고
‎뭐가 뜰지도 모르는 게

431
00:24:37,225 --> 00:24:40,061
‎라스베이거스의
‎슬롯머신과 완전히 똑같죠

432
00:24:40,145 --> 00:24:42,230
‎상품을 계속해서
‎쓰게 만드는 것도 모자라서

433
00:24:42,314 --> 00:24:44,024
‎뇌간 깊숙한 곳으로 들어가

434
00:24:44,107 --> 00:24:47,652
‎여러분에게
‎무의식적인 습관을 심어서

435
00:24:47,736 --> 00:24:50,864
‎심층부에서부터
‎프로그래밍을 하는 겁니다

436
00:24:50,947 --> 00:24:52,115
‎아주 은밀하게 말이죠

437
00:24:52,532 --> 00:24:54,034
‎제임스 마셜이라는 자는...

438
00:24:54,117 --> 00:24:56,286
‎책상 위의 스마트폰을 볼 때마다

439
00:24:56,369 --> 00:24:59,789
‎계속 눈이 가고
‎손이 가기 마련이에요

440
00:24:59,873 --> 00:25:01,333
‎재밌는 게 있을 것 같거든요

441
00:25:01,416 --> 00:25:03,877
‎그리고 슬롯머신을 당겨 보는 거죠

442
00:25:04,294 --> 00:25:06,046
‎그건 우연이 아니라
‎그렇게 디자인된 거예요

443
00:25:06,129 --> 00:25:11,134
‎샌프란시스코의 육군 장교에게
‎그는 황금 덩어리를 가져갔어

444
00:25:12,219 --> 00:25:15,388
‎샌프란시스코의
‎당시 인구는 고작...

445
00:25:15,472 --> 00:25:17,432
‎다른 예시는 포토 태그예요

446
00:25:19,726 --> 00:25:24,064
‎친구가 당신을 방금 사진에
‎태그했다는 이메일을 받으면

447
00:25:24,147 --> 00:25:28,568
‎당연히 이메일을 클릭하고
‎사진을 보겠죠

448
00:25:29,152 --> 00:25:31,821
‎그건 그냥 무시할 수 있는 게
‎아니에요

449
00:25:32,364 --> 00:25:36,326
‎인간 심리의 아주 깊숙한 곳을
‎건드리는 것이니까요

450
00:25:36,409 --> 00:25:38,078
‎근데 이런 질문을 하셔야 해요

451
00:25:38,161 --> 00:25:40,288
‎'왜 이메일에
‎사진이 안 들어 있는 거지?'

452
00:25:40,372 --> 00:25:42,165
‎'그러면 간편할 텐데'

453
00:25:42,541 --> 00:25:45,919
‎페이스북이 그걸 발견했을 때
‎그들은 그걸 최대화했습니다

454
00:25:46,002 --> 00:25:48,505
‎활동량을 늘리기에
‎좋은 방법이 될 거라며

455
00:25:48,588 --> 00:25:51,091
‎사람들이 종일 사진에
‎태그를 하게 만들었어요

456
00:25:56,263 --> 00:25:58,890
‎"Ben_W
‎적어도 한 사람은 잘 나왔네"

457
00:25:59,349 --> 00:26:00,475
‎댓글을 달았어

458
00:26:00,559 --> 00:26:01,434
‎좋아

459
00:26:01,935 --> 00:26:04,688
‎리베카가 댓글을 봤고
‎대댓글을 다는 중이야

460
00:26:04,771 --> 00:26:07,566
‎리베카가 타이핑 중이라고
‎벤에게 알려 줘

461
00:26:07,649 --> 00:26:08,733
‎말줄임표 활성화

462
00:26:19,411 --> 00:26:20,745
‎좋아, 이모지를 달았어

463
00:26:21,454 --> 00:26:24,249
‎이제 벤이 자신의 댓글에 달린
‎댓글에 다시 댓글을 달고 있어

464
00:26:25,041 --> 00:26:26,418
‎잠깐, 타이핑을 멈췄어

465
00:26:26,751 --> 00:26:27,752
‎자동 완성을 쓰자

466
00:26:28,420 --> 00:26:30,005
‎이모지야, 벤은 이모지 좋아하거든

467
00:26:31,381 --> 00:26:33,758
‎"자동 완성 완료, 실행"

468
00:26:33,842 --> 00:26:34,676
‎불꽃을 선택했어

469
00:26:35,427 --> 00:26:36,803
‎난 가지를 선택하길 바랐는데

470
00:26:38,597 --> 00:26:42,726
‎'그로스 해킹'이라는
‎분야가 있어요

471
00:26:42,809 --> 00:26:47,147
‎엔지니어들이 사람들의
‎심리를 해킹해서

472
00:26:47,230 --> 00:26:48,565
‎더 성장하는 거예요

473
00:26:48,648 --> 00:26:50,984
‎더 많은 신규 사용자를 늘리고
‎활동량도 늘리고

474
00:26:51,067 --> 00:26:52,861
‎더 많은 이들을 초대하게 만들어요

475
00:26:52,944 --> 00:26:55,697
‎모든 실험을 하고
‎다시 반복한 다음에

476
00:26:56,072 --> 00:26:57,574
‎우리가 깨달은 게 뭔지 아세요?

477
00:26:57,991 --> 00:26:59,826
‎10일 안에
‎7명의 친구를 데려오는 것

478
00:26:59,909 --> 00:27:01,870
‎"차마스 팔리하피티야
‎전 페이스북 부사장"

479
00:27:01,953 --> 00:27:02,787
‎그게 다예요

480
00:27:02,871 --> 00:27:05,498
‎차마스는 초기 페이스북의
‎성장 책임자였고

481
00:27:05,582 --> 00:27:08,835
‎IT 업계에서 굉장히 유명합니다

482
00:27:08,960 --> 00:27:11,004
‎페이스북을 급성장시킨

483
00:27:11,087 --> 00:27:14,758
‎성장 전략들을
‎개발한 것으로 말이죠

484
00:27:14,841 --> 00:27:18,553
‎그리고 그 성장 전략들은
‎실리콘 밸리의 교본이 되었습니다

485
00:27:18,637 --> 00:27:21,222
‎우버를 비롯한
‎다른 회사에서도 사용했죠

486
00:27:21,306 --> 00:27:27,062
‎그가 개척한 것 중의 하나는
‎작은 변화를 이용하는

487
00:27:27,145 --> 00:27:28,480
‎과학적인 A/B 테스트예요

488
00:27:29,022 --> 00:27:30,940
‎구글이나 페이스북 같은 회사들은

489
00:27:31,024 --> 00:27:34,569
‎사용자들을 상대로 작은 실험들을

490
00:27:34,653 --> 00:27:36,821
‎엄청나게 많이 하고 있습니다

491
00:27:36,905 --> 00:27:39,866
‎그리고 그런 실험을 계속하다 보면

492
00:27:39,949 --> 00:27:43,036
‎사용자들을 조종할 수 있는

493
00:27:43,119 --> 00:27:45,288
‎가장 효과적인 방법을
‎개발하게 됩니다

494
00:27:45,372 --> 00:27:46,790
‎조작인 거죠

495
00:27:47,332 --> 00:27:49,209
‎실험실 쥐가 된 기분이에요

496
00:27:49,834 --> 00:27:51,920
‎실험실 쥐 맞아요
‎우리 모두가 그렇죠

497
00:27:52,545 --> 00:27:55,548
‎암 치료제 개발에
‎쓰이는 실험실 쥐도 아니고

498
00:27:55,632 --> 00:27:58,134
‎그들이 우리에게
‎뭔가를 주려는 것도 아니에요

499
00:27:58,218 --> 00:28:01,680
‎우린 그냥 광고만 보는
‎좀비일 뿐이에요

500
00:28:01,763 --> 00:28:03,181
‎그들이 돈을 더 벌 수 있게 말이죠

501
00:28:03,556 --> 00:28:08,228
‎페이스북에서는 소위
‎'대규모 전염 실험'이란 걸 했어요

502
00:28:08,311 --> 00:28:09,145
‎좋아

503
00:28:09,229 --> 00:28:12,857
‎'페이스북 페이지에서
‎어떻게 무의식적인 암시를 줘서'

504
00:28:13,400 --> 00:28:17,570
‎'사람들이 중간 선거에
‎투표를 더 하게 만들까?'

505
00:28:17,987 --> 00:28:20,824
‎그리고 그게 가능하다는 걸
‎그들이 알게 됐어요

506
00:28:20,907 --> 00:28:24,160
‎한 가지 결론은
‎이제 우리도 알고 있습니다

507
00:28:24,744 --> 00:28:28,915
‎그들은 아무도 모르게 사용자들의

508
00:28:28,998 --> 00:28:32,877
‎실제 행동과 감정을
‎끌어낼 수 있다는 것이죠

509
00:28:33,378 --> 00:28:37,382
‎사용자들은 꿈에도 몰라요

510
00:28:38,049 --> 00:28:41,970
‎우리는 인공지능 엔진들을
‎우리에게 써서

511
00:28:42,053 --> 00:28:46,224
‎우리가 무엇에 어떻게 반응하는지
‎알아내고 있습니다

512
00:28:47,100 --> 00:28:49,561
‎마치 거미의 신경 세포를 자극해서

513
00:28:49,644 --> 00:28:51,479
‎무엇이 다리를 움직이는지
‎알아내는 것과 같죠

514
00:28:51,938 --> 00:28:53,940
‎일종의 감옥 실험 같은 겁니다

515
00:28:54,023 --> 00:28:56,735
‎사람들을 매트릭스로 끌어들여서

516
00:28:56,818 --> 00:29:00,572
‎그들의 활동에서 나오는
‎돈과 데이터로

517
00:29:00,655 --> 00:29:01,489
‎이익을 얻는 거죠

518
00:29:01,573 --> 00:29:03,199
‎근데 우리는 그 사실도 모르고요

519
00:29:04,117 --> 00:29:07,912
‎우리는 최대한 빨리 심리적으로
‎당신을 조작할 방법을 알아내고

520
00:29:07,996 --> 00:29:10,081
‎말초적인 보상을 주려고 합니다

521
00:29:10,165 --> 00:29:12,542
‎페이스북은 그걸 너무 잘했고

522
00:29:12,625 --> 00:29:14,919
‎인스타그램과 왓츠앱도 했어요

523
00:29:15,003 --> 00:29:17,380
‎스냅챗도, 트위터도 그랬고요

524
00:29:17,464 --> 00:29:19,424
‎저 같은 해커들이나

525
00:29:19,507 --> 00:29:22,427
‎떠올릴 법한 발상입니다

526
00:29:22,510 --> 00:29:27,015
‎인간 심리의 취약한 면을
‎착취하는 것이니까요

527
00:29:27,098 --> 00:29:28,725
‎"션 파커
‎전 페이스북 회장"

528
00:29:28,808 --> 00:29:33,438
‎우리 같은 창업가, 개발자들...

529
00:29:33,980 --> 00:29:37,317
‎저나 마크 같은 사람들

530
00:29:37,400 --> 00:29:40,403
‎그리고 인스타그램의
‎케빈 시스트롬도

531
00:29:41,154 --> 00:29:46,451
‎그걸 다 의식하고 있었지만
‎그래도 했습니다

532
00:29:50,580 --> 00:29:53,750
‎자전거가 나타났을 땐
‎아무도 화를 내지 않았어요

533
00:29:55,043 --> 00:29:58,004
‎그렇죠? 다들 자전거를 타고
‎돌아다니기 바빴지

534
00:29:58,087 --> 00:30:00,924
‎이런 말은 아무도 안 했어요
‎'맙소사, 우리가 세상을 망쳤어'

535
00:30:01,007 --> 00:30:03,051
‎'자전거가
‎사람들에게 영향을 끼치고'

536
00:30:03,134 --> 00:30:05,303
‎'자녀들과 멀어지게 하고'

537
00:30:05,386 --> 00:30:08,723
‎'민주주의의 근간을 해치며
‎눈을 흐리게 만들었어'

538
00:30:08,807 --> 00:30:11,476
‎우린 자전거에 대해선
‎그런 말을 안 했어요

539
00:30:12,769 --> 00:30:16,147
‎도구라는 것은
‎쓰지 않을 때는 가만히 있습니다

540
00:30:16,731 --> 00:30:18,733
‎가만히 기다리고만 있죠

541
00:30:19,317 --> 00:30:22,821
‎뭔가를 당신에게 요구한다면
‎도구가 아닌 거죠

542
00:30:22,904 --> 00:30:26,533
‎당신을 유혹하고 조종하며
‎당신에게서 뭔가를 요구해요

543
00:30:26,950 --> 00:30:30,495
‎우리는 근본이 도구인
‎기술 환경에서 옮겨간 거예요

544
00:30:31,037 --> 00:30:34,499
‎근본이 중독, 조종인
‎기술 환경으로 말이죠

545
00:30:34,582 --> 00:30:35,708
‎그게 변한 거예요

546
00:30:35,792 --> 00:30:39,420
‎소셜 미디어는 사용되길 기다리는
‎도구가 아닙니다

547
00:30:39,504 --> 00:30:43,466
‎그만의 목적이 있고
‎그 목적을 달성하려고 합니다

548
00:30:43,550 --> 00:30:45,677
‎당신의 심리를 역이용해서 말이죠

549
00:30:48,930 --> 00:30:52,517
‎"고객을 사용자라고 부르는 산업은
‎단 두 종류가 있다"

550
00:30:52,600 --> 00:30:55,562
‎"불법 마약과
‎소프트웨어 산업이다"

551
00:30:55,645 --> 00:30:57,480
‎"에드워드 터프티"

552
00:30:57,564 --> 00:31:02,193
‎저는 몇 년 전에
‎핀터레스트의 회장이었습니다

553
00:31:03,152 --> 00:31:08,366
‎집에 가서도 손에서 스마트폰을
‎놓을 수가 없는 거예요

554
00:31:08,449 --> 00:31:12,161
‎제 사랑과 관심이 필요한
‎어린 자식이 둘이나 있는데도요

555
00:31:12,245 --> 00:31:15,748
‎저는 식료품 저장실에서
‎이메일을 보내거나

556
00:31:15,832 --> 00:31:17,542
‎핀터레스트를 보고 있었어요

557
00:31:18,001 --> 00:31:19,627
‎완전 전형적인
‎아이러니라고 생각했죠

558
00:31:19,711 --> 00:31:22,046
‎낮에 직장에서

559
00:31:22,130 --> 00:31:26,426
‎제가 만든 것에
‎먹히고 있었으니까요

560
00:31:26,509 --> 00:31:30,096
‎저도 정말 어쩔 수 없었던
‎때가 있었습니다

561
00:31:32,307 --> 00:31:36,102
‎제가 제일 많이 하는 건
‎트위터예요

562
00:31:36,728 --> 00:31:38,021
‎예전에는 레딧이었고요

563
00:31:38,104 --> 00:31:42,859
‎레딧에서 벗어나기 위해
‎소프트웨어를 만들었을 정도였죠

564
00:31:45,361 --> 00:31:47,780
‎저는 제 이메일에
‎제일 중독된 것 같습니다

565
00:31:47,864 --> 00:31:49,866
‎진짜 그렇게 느껴요

566
00:31:52,577 --> 00:31:54,954
‎정말 흥미로운 건

567
00:31:55,038 --> 00:31:58,166
‎막후에서 무슨 일이
‎벌어지는지 잘 알면서도

568
00:31:58,249 --> 00:32:01,628
‎자신을 컨트롤하지
‎못했다는 거예요

569
00:32:01,711 --> 00:32:03,046
‎조금 무섭죠

570
00:32:03,630 --> 00:32:07,050
‎어떤 속임수를 쓰는지 알면서도
‎전 여전히 휘둘립니다

571
00:32:07,133 --> 00:32:09,886
‎스마트폰을 잡으면
‎20분이 순식간에 사라지죠

572
00:32:12,805 --> 00:32:15,725
‎아침에 소변 보기 전에
‎스마트폰을 확인하나요?

573
00:32:15,808 --> 00:32:17,477
‎아니면 소변 보면서 확인하나요?

574
00:32:17,560 --> 00:32:19,187
‎선택할 수 있는 건
‎그게 전부거든요

575
00:32:19,562 --> 00:32:23,274
‎저는 의지로 버티려고 했어요

576
00:32:23,358 --> 00:32:26,903
‎'스마트폰 안 만질 거야
‎퇴근하면 차에 두고 내릴 거야'

577
00:32:26,986 --> 00:32:30,573
‎그걸 수천 번이나 되뇌었어요
‎아주 오랫동안요

578
00:32:30,657 --> 00:32:32,617
‎'침실에 스마트폰 안 가져가야지'

579
00:32:32,700 --> 00:32:34,535
‎그래놓고 밤 9시가 되면

580
00:32:34,619 --> 00:32:37,121
‎'침실에 스마트폰 가져가고 싶어'

581
00:32:37,956 --> 00:32:39,290
‎그렇게 결국에는...

582
00:32:39,374 --> 00:32:41,125
‎처음에는 의지로 버티다가

583
00:32:41,209 --> 00:32:44,295
‎강제력을 동원하기도 했어요

584
00:32:44,379 --> 00:32:45,880
‎'키친 세이프'를 소개합니다

585
00:32:45,964 --> 00:32:49,801
‎시한 잠금장치가 달린
‎혁명적인 용기인데

586
00:32:49,884 --> 00:32:51,678
‎유혹과 맞서는 것을 도와줍니다

587
00:32:51,761 --> 00:32:56,724
‎데이비드는 키친 세이프에
‎물건을 넣기만 하면 됩니다

588
00:32:57,392 --> 00:33:00,561
‎이제 다이얼을 돌려서
‎타이머를 설정할 겁니다

589
00:33:01,479 --> 00:33:04,232
‎마지막으로 다이얼을 눌러서
‎잠금장치를 활성화합니다

590
00:33:04,315 --> 00:33:05,525
‎키친 세이프는 대단해요

591
00:33:05,608 --> 00:33:06,776
‎우리도 저거 있지?

592
00:33:06,859 --> 00:33:08,569
‎비디오 게임, 신용 카드, 휴대폰

593
00:33:08,653 --> 00:33:09,654
‎맞아

594
00:33:09,737 --> 00:33:11,072
‎키친 세이프가 잠기면

595
00:33:11,155 --> 00:33:13,866
‎타이머가 다 될 때까지
‎절대 열리지 않습니다

596
00:33:13,950 --> 00:33:17,537
‎그러니까 말이죠
‎소셜 미디어는 마약이에요

597
00:33:17,620 --> 00:33:20,873
‎우리에겐 다른 사람들과
‎연결되어야 하는

598
00:33:20,957 --> 00:33:23,084
‎생물학적 의무가 있고

599
00:33:23,167 --> 00:33:28,214
‎보상 차원의 도파민 방출에
‎직접적인 영향을 끼치죠

600
00:33:28,297 --> 00:33:32,552
‎수백 만년의 진화가
‎그 시스템 뒤에 있어요

601
00:33:32,635 --> 00:33:35,596
‎우리가 무리를 지어 살고

602
00:33:35,680 --> 00:33:38,016
‎짝을 찾고
‎대를 잇기 위해서 말이에요

603
00:33:38,099 --> 00:33:41,853
‎그러니 소셜 미디어 같은 것은

604
00:33:41,936 --> 00:33:45,690
‎사람들 간의 연결을 최적화해서

605
00:33:45,773 --> 00:33:48,568
‎중독되게 만들기 마련입니다

606
00:33:52,780 --> 00:33:54,115
‎아빠, 그만해요

607
00:33:55,450 --> 00:33:58,453
‎저녁 먹기 전에
‎보내야 할 스닙이 엄청 많다고요

608
00:33:58,536 --> 00:33:59,537
‎스닙?

609
00:33:59,620 --> 00:34:01,080
‎그건 나도 모르겠어

610
00:34:01,164 --> 00:34:03,207
‎- 향이 정말 좋네
‎- 고마워

611
00:34:03,291 --> 00:34:05,877
‎오늘 저녁은 오감을 다 써서

612
00:34:05,960 --> 00:34:07,712
‎즐기면 좋을 것 같았어

613
00:34:07,795 --> 00:34:11,382
‎그래서 오늘 밤 식탁에는
‎스마트폰이 없을 거야

614
00:34:11,466 --> 00:34:13,301
‎그러니까 빨리 넘겨

615
00:34:13,801 --> 00:34:14,802
‎- 정말?
‎- 그래

616
00:34:15,928 --> 00:34:18,056
‎- 알았어
‎- 고마워, 벤?

617
00:34:18,139 --> 00:34:19,891
‎- 알았어요
‎- 스마트폰 해적이네

618
00:34:21,100 --> 00:34:21,934
‎- 뺏었다
‎- 엄마!

619
00:34:22,602 --> 00:34:26,147
‎저녁 다 먹기 전까지
‎여기 보관할 거니까

620
00:34:27,273 --> 00:34:31,277
‎다들 유난 떨지 마, 알겠지?

621
00:34:47,418 --> 00:34:49,253
‎- 누군지 봐도 돼요?
‎- 아니

622
00:34:54,759 --> 00:34:56,969
‎포크 가지고 올게요

623
00:34:58,304 --> 00:34:59,263
‎고마워

624
00:35:04,727 --> 00:35:06,771
‎그런다고 안 열려

625
00:35:06,854 --> 00:35:09,315
‎한 시간 동안 잠갔으니
‎그냥 그대로 둬

626
00:35:11,192 --> 00:35:13,361
‎우리 무슨 이야기 할까?

627
00:35:13,444 --> 00:35:17,907
‎오늘 운전하면서 봤던
‎극 중도파 이야기를 해 볼까?

628
00:35:17,990 --> 00:35:18,825
‎- 제발, 프랭크
‎- 뭐?

629
00:35:18,908 --> 00:35:20,785
‎정치 얘기는 하기 싫어

630
00:35:20,868 --> 00:35:23,538
‎- 극 중도파가 잘못됐나요?
‎- 봐, 얜 이해도 못 했어

631
00:35:23,621 --> 00:35:24,622
‎묻는 사람에 따라 달라

632
00:35:24,705 --> 00:35:26,624
‎프로파간다가
‎잘못됐냐고 묻는 것과 같아

633
00:35:28,709 --> 00:35:29,710
‎아일라!

634
00:35:32,797 --> 00:35:33,756
‎맙소사

635
00:35:37,135 --> 00:35:38,553
‎- 내가...
‎- 응

636
00:35:41,973 --> 00:35:43,933
‎전 제 아이들이 걱정돼요

637
00:35:44,016 --> 00:35:46,686
‎그쪽이 애가 있으면
‎그쪽 애도 걱정되고요

638
00:35:46,769 --> 00:35:50,189
‎저는 제가 가진 지식과
‎경험으로 무장하고

639
00:35:50,273 --> 00:35:52,108
‎아이들과 싸우고 있어요

640
00:35:52,191 --> 00:35:54,443
‎스마트폰, 컴퓨터 사용 시간을
‎놓고 말이죠

641
00:35:54,527 --> 00:35:58,197
‎제 아들한테 몇 시간이나
‎스마트폰을 보냐고 물으면

642
00:35:58,281 --> 00:36:01,075
‎이렇게 답을 해요
‎'최대 1시간 반이에요'

643
00:36:01,159 --> 00:36:04,871
‎1시간 조금 넘겨서
‎1시간 반 정도인 것 같아요

644
00:36:04,954 --> 00:36:06,789
‎몇 주 전에 얘 사용 시간
‎기록을 봤는데

645
00:36:06,873 --> 00:36:08,708
‎- 3시간 45분이었어요
‎- 그건...

646
00:36:11,377 --> 00:36:13,588
‎그건 좀 아닌 것...
‎하루 평균 시간이?

647
00:36:13,671 --> 00:36:15,506
‎- 그래
‎- 지금 확인해 볼까?

648
00:36:15,590 --> 00:36:19,760
‎아이들에게 쾌락과 고통의 균형과

649
00:36:19,927 --> 00:36:21,762
‎도파민 부족 상태와

650
00:36:21,846 --> 00:36:26,267
‎중독의 위험에 대해
‎말하지 않는 날이 없어요

651
00:36:26,350 --> 00:36:27,310
‎- 좋아
‎- 누가 맞나 보자

652
00:36:27,935 --> 00:36:29,687
‎하루에 2시간 50분

653
00:36:29,770 --> 00:36:31,772
‎- 어디 보자
‎- 실은 오늘 많이 썼어

654
00:36:31,856 --> 00:36:33,357
‎- 지난 7일간
‎- 그래서일 거야

655
00:36:33,441 --> 00:36:37,153
‎인스타그램, 6시간 13분
‎제 인스타그램은 더 심해요

656
00:36:39,572 --> 00:36:43,201
‎화면을 완전히 박살 냈어
‎고마워, 캐스

657
00:36:44,410 --> 00:36:45,995
‎그게 무슨 말이야?

658
00:36:46,078 --> 00:36:49,290
‎별일도 아닌데
‎스마트폰 가지고 엄마를 겁주잖아

659
00:36:49,373 --> 00:36:51,167
‎저녁 먹을 때
‎스마트폰은 필요 없어

660
00:36:51,250 --> 00:36:53,294
‎무슨 말인지 알겠는데
‎별일 아니라는 거야

661
00:36:56,047 --> 00:36:58,382
‎별일 아니라면
‎일주일 동안 쓰지 마

662
00:37:01,135 --> 00:37:02,178
‎그래

663
00:37:02,261 --> 00:37:06,349
‎만약 네가 일주일 동안
‎스마트폰에 손 안 대면

664
00:37:07,725 --> 00:37:09,518
‎엄마가 화면 갈아 줄게

665
00:37:11,062 --> 00:37:12,772
‎- 지금부터요?
‎- 지금부터

666
00:37:15,274 --> 00:37:16,859
‎좋아요, 그렇게 해요

667
00:37:16,943 --> 00:37:19,111
‎스마트폰은 여기 두고 가

668
00:37:19,862 --> 00:37:21,364
‎네, 전원만 연결하고요

669
00:37:22,531 --> 00:37:25,076
‎잘 봐요, 여기다가 뒀어요

670
00:37:25,159 --> 00:37:25,993
‎그래

671
00:37:27,703 --> 00:37:29,413
‎- 지금부터 시간 잰다
‎- 일주일이에요

672
00:37:29,497 --> 00:37:30,331
‎맙소사...

673
00:37:31,457 --> 00:37:32,416
‎쟤가 할 수 있을까요?

674
00:37:33,000 --> 00:37:34,252
‎몰라, 두고 봐야지

675
00:37:35,002 --> 00:37:36,128
‎혼자 먹고 있어

676
00:37:44,220 --> 00:37:45,263
‎다 같이 먹으니까 좋네요

677
00:37:47,682 --> 00:37:49,809
‎이런 상품들은
‎아이들을 보호하려는

678
00:37:49,892 --> 00:37:53,729
‎아동 심리학자들이
‎만든 것들이 아니에요

679
00:37:53,980 --> 00:37:56,148
‎당신에게 맞는 다음 비디오를

680
00:37:56,232 --> 00:37:58,734
‎추천하기 위한 알고리즘을 위해
‎만들어진 것들이죠

681
00:37:58,818 --> 00:38:02,071
‎필터를 먹여서
‎사진을 찍게 만들기도 하고요

682
00:38:03,072 --> 00:38:05,324
‎"좋아요, 2명"

683
00:38:13,291 --> 00:38:15,126
‎"정말 지울 건가요? 아니요"

684
00:38:15,209 --> 00:38:16,210
‎"네"

685
00:38:16,752 --> 00:38:20,256
‎아이들의 관심만
‎통제하는 게 아니에요

686
00:38:21,173 --> 00:38:26,304
‎특히 소셜 미디어는
‎뇌간 깊숙이 파고들어서

687
00:38:26,387 --> 00:38:29,765
‎아이들의 자존감과
‎정체성을 장악합니다

688
00:38:29,849 --> 00:38:31,851
‎"더 예쁘게"

689
00:38:42,069 --> 00:38:43,112
‎"Lily_T, 귀여워!"

690
00:38:43,195 --> 00:38:44,822
‎"Sophia_M
‎대박, 완전 예쁘다"

691
00:38:44,905 --> 00:38:46,490
‎"Olivia_B, 너 완전 최고"

692
00:38:46,574 --> 00:38:48,200
‎"Ava_R
‎귀 더 크게 만들 수 있어?"

693
00:38:48,284 --> 00:38:49,118
‎"하하"

694
00:38:52,496 --> 00:38:55,499
‎우리는 주변 사람들의 비평에
‎관심을 갖도록

695
00:38:55,583 --> 00:38:56,667
‎"Brianna_S, 예쁘다!"

696
00:38:56,751 --> 00:38:59,128
‎진화했습니다
‎왜냐하면 중요하니까요

697
00:38:59,837 --> 00:39:04,550
‎하지만 우리가 1만 명의 비평을
‎인식하도록 진화했나요?

698
00:39:04,633 --> 00:39:05,885
‎우린 5분마다 한 번씩

699
00:39:05,968 --> 00:39:10,348
‎사회적 인정을 받도록
‎진화하지 않았어요

700
00:39:10,431 --> 00:39:13,142
‎우린 그런 걸
‎감당할 수가 없다고요

701
00:39:15,394 --> 00:39:19,982
‎우리는 완벽함을 중심으로
‎우리의 삶을 꾸려나갑니다

702
00:39:20,733 --> 00:39:23,527
‎잠깐 뜨고 마는
‎하트, 좋아요 같은 신호에

703
00:39:23,611 --> 00:39:25,154
‎보상을 받기 때문이죠

704
00:39:25,237 --> 00:39:28,407
‎그리고 가치와 진실을 혼동합니다

705
00:39:29,825 --> 00:39:33,120
‎또한 알고보면 가짜인 것과
‎부서지기 쉬운 인기이며...

706
00:39:33,913 --> 00:39:37,458
‎오래가지도 않는 것에 매달리다가

707
00:39:37,541 --> 00:39:39,919
‎전보다 더 공허해집니다

708
00:39:41,295 --> 00:39:43,381
‎왜냐하면 악순환에 빠지게 되어

709
00:39:43,464 --> 00:39:46,801
‎다음에는 뭘 해야 보상을 받을지
‎고민하게 만드니까요

710
00:39:48,260 --> 00:39:50,846
‎20억 명의 사람들이 그러는 것과

711
00:39:50,930 --> 00:39:54,433
‎사람들이 그들의 평판에
‎어떻게 반응하는지 생각해 보세요

712
00:39:54,850 --> 00:39:56,435
‎정말 심각합니다

713
00:39:56,977 --> 00:39:58,229
‎진짜 심각하다고요

714
00:40:00,856 --> 00:40:05,069
‎미국의 10대들에게서
‎우울증과 불안이

715
00:40:05,152 --> 00:40:06,529
‎엄청나게 증가했는데

716
00:40:06,612 --> 00:40:10,950
‎2011년과 2013년 사이에
‎시작되었어요

717
00:40:11,033 --> 00:40:15,371
‎이 나라의 10대 소녀 중
‎10만 명이

718
00:40:15,454 --> 00:40:17,123
‎매년 병원에 입원합니다

719
00:40:17,206 --> 00:40:19,917
‎자해를 해서 말이죠

720
00:40:20,000 --> 00:40:23,921
‎그 수는 2010, 2011년까지
‎꽤 안정적이었다가

721
00:40:24,004 --> 00:40:25,756
‎갑자기 급상승했습니다

722
00:40:28,759 --> 00:40:31,971
‎10대 후반 소녀들의 수는
‎62%가 증가했고

723
00:40:32,054 --> 00:40:33,931
‎"치명적이지 않은 자해로 인한
‎병원 입원율"

724
00:40:34,014 --> 00:40:38,310
‎10대 초반 소녀들의 수는
‎189%로 거의 3배나 뛰었습니다

725
00:40:40,312 --> 00:40:43,107
‎더 끔찍한 건
‎자살률도 그만큼 늘었다는 거예요

726
00:40:43,190 --> 00:40:44,900
‎"미국인 소녀 100만 명당 자살률"

727
00:40:44,984 --> 00:40:47,570
‎10대 후반인
‎15, 19세 소녀들의 자살률은

728
00:40:47,653 --> 00:40:51,449
‎2000년에서 2010년까지에 비하면
‎70%가 상승했습니다

729
00:40:52,158 --> 00:40:55,077
‎10대 초반의 소녀들의
‎자살률은 매우 낮았지만

730
00:40:55,161 --> 00:40:57,663
‎무려 151%나 상승했습니다

731
00:40:58,831 --> 00:41:01,709
‎그리고 그 패턴은
‎소셜 미디어를 가리켜요

732
00:41:01,792 --> 00:41:03,961
‎"2009년의
‎모바일 소셜 미디어 사용량"

733
00:41:04,044 --> 00:41:07,214
‎1996년 이후에 태어난 Z세대들

734
00:41:07,298 --> 00:41:10,342
‎그 아이들은 역사상 처음으로

735
00:41:10,426 --> 00:41:12,636
‎중학생 때
‎소셜 미디어를 접했습니다

736
00:41:15,973 --> 00:41:17,433
‎그들이 어떻게 시간을 보내냐고요?

737
00:41:19,727 --> 00:41:22,480
‎학교에서 돌아와서
‎스마트폰에 매달립니다

738
00:41:24,315 --> 00:41:29,195
‎세대 전체가 더 불안하고
‎더 연약하고 더 우울해 합니다

739
00:41:30,613 --> 00:41:33,282
‎위험을 감수하려는 마음도 적고요

740
00:41:34,325 --> 00:41:37,203
‎운전면허 취득률도
‎떨어지고 있습니다

741
00:41:39,038 --> 00:41:41,081
‎데이트 같은 로맨틱한 관계를

742
00:41:41,165 --> 00:41:44,251
‎가져 본 이들의 수도
‎급감하고 있습니다

743
00:41:47,505 --> 00:41:49,715
‎한 세대가
‎정말 변하고 있는 거예요

744
00:41:53,177 --> 00:41:57,306
‎그리고 기억하세요
‎이런 아이들이 입원할 때마다

745
00:41:57,389 --> 00:42:00,267
‎충격을 받는 가족이
‎있다는 걸 말이에요

746
00:42:00,351 --> 00:42:02,353
‎'맙소사
‎애들이 어떻게 되는 거지?'

747
00:42:19,411 --> 00:42:21,038
‎제겐 뻔히 보입니다

748
00:42:22,873 --> 00:42:28,128
‎이런 서비스들이 사람을 죽이고
‎자살하게 만듭니다

749
00:42:29,088 --> 00:42:33,300
‎이러는 부모가 어디 있나요?
‎'네, 저는 IT 디자이너들에게'

750
00:42:33,384 --> 00:42:36,887
‎'아이들이 조종당했으면 좋겠어요'

751
00:42:36,971 --> 00:42:39,723
‎'관심을 모조리 뺏겨서
‎숙제도 할 수 없고'

752
00:42:39,807 --> 00:42:42,560
‎'비현실적인 미의 기준에
‎자신을 비교했으면 좋겠어요'

753
00:42:42,643 --> 00:42:44,687
‎그런 사람은 아무도 없어요

754
00:42:45,104 --> 00:42:46,355
‎한 명도 없죠

755
00:42:46,438 --> 00:42:48,482
‎예전에는 보호 장치가 있었어요

756
00:42:48,566 --> 00:42:50,943
‎아이들이 토요일 오전에
‎만화 영화를 볼 때

757
00:42:51,026 --> 00:42:52,778
‎아이들에게 신경을 썼잖아요

758
00:42:52,861 --> 00:42:56,574
‎'이렇게 어린 아이들에게
‎이런 광고를 하면 안 돼'

759
00:42:57,366 --> 00:42:58,784
‎그런데 유튜브를 보세요

760
00:42:58,867 --> 00:43:02,454
‎유튜브가 모두의 관심을
‎완전히 장악했고

761
00:43:02,538 --> 00:43:04,915
‎모든 아이들이
‎유튜브에 노출되었어요

762
00:43:04,999 --> 00:43:07,376
‎모든 보호와 규정이 사라졌고요

763
00:43:10,296 --> 00:43:17,261
‎"벤이 스마트폰을 포기하고
‎경과한 시간"

764
00:43:18,304 --> 00:43:22,141
‎우리는 한 세대 전체를
‎훈련하고 길들이고 있습니다

765
00:43:23,434 --> 00:43:29,148
‎우리가 불편하거나 외롭거나
‎불확실하거나 두려울 때

766
00:43:29,231 --> 00:43:31,775
‎디지털 젖꼭지를 찾게 말이죠

767
00:43:32,526 --> 00:43:36,488
‎우리가 본래 가진 능력을
‎위태롭게 하는 거예요

768
00:43:53,964 --> 00:43:56,884
‎포토샵은 수천 명의 엔지니어가
‎화면 뒤에서

769
00:43:56,967 --> 00:43:58,969
‎알림과 친구들을 이용하고

770
00:43:59,053 --> 00:44:02,431
‎인공 지능을 이용해서
‎당신을 중독시키고

771
00:44:02,514 --> 00:44:04,516
‎조종하거나 광고주들이

772
00:44:04,600 --> 00:44:06,894
‎6만 개의 다양한 문자나 색상을
‎테스트해서

773
00:44:06,977 --> 00:44:08,395
‎"시카고
‎기술 독과점 금지 콘퍼런스"

774
00:44:08,479 --> 00:44:10,773
‎당신의 마음을 조작하는 법을
‎알아내지 않았습니다

775
00:44:11,148 --> 00:44:14,985
‎이건 전혀 새로운 힘과
‎영향력입니다

776
00:44:16,070 --> 00:44:19,156
‎다시 말하겠는데
‎사람들을 중독시키고

777
00:44:19,239 --> 00:44:22,868
‎영향력을 끼치기 위해
‎사용된 방식은

778
00:44:22,951 --> 00:44:25,204
‎이번에는 아마 꽤 다를 겁니다

779
00:44:25,287 --> 00:44:28,749
‎신문이 나왔을 때도 달랐고
‎인쇄기가 나왔을 때도 달랐고

780
00:44:28,832 --> 00:44:31,835
‎TV가 나왔을 때도 달랐어요

781
00:44:31,919 --> 00:44:34,004
‎그땐 주요 방송국이
‎세 개 있었는데...

782
00:44:34,463 --> 00:44:36,423
‎- 그때는요
‎- 네, 제 말이 그거예요

783
00:44:36,507 --> 00:44:38,384
‎하지만 새로운 방식은 대두는

784
00:44:38,467 --> 00:44:42,054
‎이미 과거에도
‎여러 번 있었다는 거예요

785
00:44:42,137 --> 00:44:45,099
‎이건 우리가 가장 최근에
‎목격한 것일 뿐이고요

786
00:44:45,182 --> 00:44:48,727
‎우리가 적응할 수 있다는
‎내러티브가 있어요

787
00:44:48,811 --> 00:44:51,188
‎'이 기기들과
‎공존할 방법을 배울 거야'

788
00:44:51,271 --> 00:44:53,357
‎'다른 모든 것들과
‎그랬던 것처럼 말이지'

789
00:44:53,816 --> 00:44:56,694
‎그런데 분명히 새로운 뭔가가
‎있다는 걸 놓치고 있어요

790
00:44:57,569 --> 00:44:59,613
‎아마도 가장 위험한 것은

791
00:44:59,697 --> 00:45:04,410
‎기하급수적으로 발전하는 기술에
‎휘둘린다는 것일 겁니다

792
00:45:04,910 --> 00:45:05,911
‎"컴퓨터 연산 능력"

793
00:45:05,994 --> 00:45:09,081
‎1960년대부터 오늘날까지

794
00:45:09,873 --> 00:45:12,960
‎컴퓨터 연산 능력은
‎대략 1조 배나 상승했습니다

795
00:45:13,794 --> 00:45:18,340
‎그 어떤 기술도
‎이런 속도로 발전한 게 없습니다

796
00:45:18,424 --> 00:45:22,177
‎자동차는
‎겨우 두 배 정도 빨라졌고

797
00:45:22,261 --> 00:45:25,264
‎다른 건
‎거의 무시해도 될 정도입니다

798
00:45:25,347 --> 00:45:27,182
‎그리고 가장 중요한 것은

799
00:45:27,266 --> 00:45:31,353
‎인간의 생리와 두뇌는
‎전혀 발전하지 않았다는 겁니다

800
00:45:31,854 --> 00:45:35,232
‎"벤이 스마트폰을 포기하고
‎경과한 시간"

801
00:45:37,401 --> 00:45:41,488
‎인간의 정신과 신체 같은 건

802
00:45:41,947 --> 00:45:43,866
‎근본적인 변화가 없을 겁니다

803
00:45:56,837 --> 00:46:00,924
‎미래에는 유전 공학으로
‎새로운 인간을 개발할지 모르지만

804
00:46:01,008 --> 00:46:05,220
‎현실적으로 말해서
‎우리는 뇌라는 하드웨어 안에 살고

805
00:46:05,304 --> 00:46:07,222
‎그 뇌는 수백만 년이나 된 겁니다

806
00:46:07,306 --> 00:46:10,559
‎그런데 여기 화면이 있고
‎그 화면의 반대편에

807
00:46:10,642 --> 00:46:13,562
‎수천 명의 엔지니어와
‎슈퍼컴퓨터들이

808
00:46:13,645 --> 00:46:16,106
‎당신의 목표와
‎다른 목표를 갖고 있어요

809
00:46:16,190 --> 00:46:19,693
‎그 게임에서 누가 이길까요?
‎누가 이기겠어요?

810
00:46:25,699 --> 00:46:26,784
‎어떻게 우리가 지고 있지?

811
00:46:27,159 --> 00:46:29,828
‎- 모르겠어
‎- 어디 있지? 이건 정상이 아냐

812
00:46:29,912 --> 00:46:32,080
‎친구, 가족 소식을
‎너무 과하게 보여 줬나?

813
00:46:32,164 --> 00:46:34,082
‎- 아마도
‎- 광고 때문일지도 몰라

814
00:46:34,166 --> 00:46:37,795
‎아니, 뭔가 크게 잘못됐어
‎부활 모드로 변경하자

815
00:46:39,713 --> 00:46:44,051
‎인공 지능이라고 하면
‎세상을 망칠 것 같고

816
00:46:44,134 --> 00:46:47,221
‎터미네이터나
‎아널드 슈워제네거를 떠올리죠

817
00:46:47,638 --> 00:46:48,680
‎난 돌아올 것이다

818
00:46:48,764 --> 00:46:52,059
‎드론을 봐도 인공 지능이
‎사람을 죽일 거란 생각이 들고요

819
00:46:53,644 --> 00:46:57,606
‎그런데 사람들은 모르고 있어요
‎인공 지능이 이미

820
00:46:58,065 --> 00:46:59,483
‎세계를 지배하고 있다는 걸요

821
00:46:59,900 --> 00:47:03,237
‎인공 지능이란 말은
‎비유일 뿐입니다

822
00:47:03,320 --> 00:47:09,451
‎구글 같은 회사에는
‎엄청나게 큰 공간이 있어요

823
00:47:10,327 --> 00:47:13,121
‎일부는 지하에 있고
‎일부는 수중에 있습니다

824
00:47:13,205 --> 00:47:14,498
‎컴퓨터들만 말이죠

825
00:47:14,581 --> 00:47:17,835
‎엄청나게 많은 수의 컴퓨터들이
‎끝없이 늘어서 있습니다

826
00:47:18,460 --> 00:47:20,504
‎서로 아주 긴밀하게 연결되어 있고

827
00:47:20,587 --> 00:47:22,923
‎굉장히 복잡한 프로그램을 돌리며

828
00:47:23,006 --> 00:47:26,009
‎서로 언제나
‎정보를 교환하고 있습니다

829
00:47:26,802 --> 00:47:28,595
‎그리고 같은 컴퓨터에서
‎수많은 프로그램과

830
00:47:28,679 --> 00:47:30,806
‎수많은 제품들을 돌리고 있어요

831
00:47:31,473 --> 00:47:33,684
‎일부는 단순한 알고리즘이고

832
00:47:33,767 --> 00:47:35,227
‎일부의 알고리즘은 너무 복잡해서

833
00:47:35,310 --> 00:47:37,521
‎인공 지능이라고도 할 수 있죠

834
00:47:40,148 --> 00:47:43,777
‎저는 알고리즘이
‎코드에 내재한 의견이라고 봅니다

835
00:47:45,070 --> 00:47:47,656
‎그리고 알고리즘은
‎객관적이지 않아요

836
00:47:48,365 --> 00:47:51,577
‎알고리즘은 성공의 정의에
‎최적화되어 있어요

837
00:47:52,244 --> 00:47:53,370
‎생각해 보세요

838
00:47:53,453 --> 00:47:57,124
‎한 기업이 그들의 성공을 위해

839
00:47:57,207 --> 00:47:59,293
‎알고리즘을 만든다는 것은

840
00:47:59,835 --> 00:48:01,211
‎상업적인 이익이 목표인 겁니다

841
00:48:01,587 --> 00:48:02,671
‎이윤을 위해서라고요

842
00:48:03,130 --> 00:48:07,384
‎컴퓨터에 어떤 결과를
‎원한다고 입력을 하면

843
00:48:07,467 --> 00:48:10,262
‎컴퓨터는
‎그 방법을 스스로 학습합니다

844
00:48:10,345 --> 00:48:12,598
‎'기계 학습'이란 말이
‎거기서 나온 거예요

845
00:48:12,681 --> 00:48:14,850
‎그래서 매일 조금씩 발전해서

846
00:48:14,933 --> 00:48:16,977
‎적절한 포스트를
‎적절하게 배치하여

847
00:48:17,060 --> 00:48:19,438
‎당신이 더 많은 시간을
‎쓰게 만드는 겁니다

848
00:48:19,521 --> 00:48:22,232
‎그리고 그들이
‎목표를 달성하기 위해

849
00:48:22,316 --> 00:48:23,901
‎뭘 하는지는 아무도 모릅니다

850
00:48:23,984 --> 00:48:28,238
‎알고리즘엔 자아가 있어요
‎비록 사람이 만드는 것이지만

851
00:48:28,906 --> 00:48:30,657
‎코드를 작성할 때

852
00:48:30,741 --> 00:48:34,745
‎기계 스스로 변화하도록 만듭니다

853
00:48:35,120 --> 00:48:37,873
‎오직 소수의 사람들만이...

854
00:48:37,956 --> 00:48:40,000
‎페이스북, 트위터 같은
‎회사들에서 말이죠

855
00:48:40,083 --> 00:48:43,795
‎오직 소수의 사람들만이
‎그 시스템을 이해합니다

856
00:48:43,879 --> 00:48:46,715
‎심지어 그들도 특정 콘텐츠에서

857
00:48:46,798 --> 00:48:49,551
‎어떤 일이 일어날지
‎다 알지 못합니다

858
00:48:49,968 --> 00:48:55,474
‎인간들은 시스템에 대한 통제력을
‎거의 잃어버린 거예요

859
00:48:55,891 --> 00:48:59,603
‎우리가 보는 정보를
‎시스템이 통제하니까요

860
00:48:59,686 --> 00:49:01,939
‎그들의 통제력이
‎우리보다 더 큽니다

861
00:49:03,815 --> 00:49:07,319
‎벤과 비슷한 사용자들을
‎저 지역에서 비교해 보자

862
00:49:07,402 --> 00:49:09,571
‎벤의 정신적인 도플갱어들이지

863
00:49:09,655 --> 00:49:13,700
‎벤처럼 행동하는 사람이
‎저 지역에 13,694명이나 있어

864
00:49:13,784 --> 00:49:16,370
‎- 왜들 저러는 거지?
‎- 제대로 된 부활을 위해

865
00:49:16,453 --> 00:49:17,704
‎새끈한 게 필요하겠어

866
00:49:17,788 --> 00:49:19,957
‎일반적인 건 안 통하니까

867
00:49:20,040 --> 00:49:21,875
‎학교의 귀여운 여자애도 안 먹혀

868
00:49:22,334 --> 00:49:25,253
‎내 분석에 따르면
‎극 중도파 콘텐츠를 이용하면

869
00:49:25,337 --> 00:49:28,256
‎장기 사용량이 62.3% 상승해

870
00:49:28,340 --> 00:49:29,299
‎나쁘지 않네

871
00:49:30,342 --> 00:49:32,302
‎선봉으로 쓰기엔 부족해

872
00:49:32,386 --> 00:49:35,305
‎우린 사진 태그로 알림도 보냈고

873
00:49:35,389 --> 00:49:39,017
‎초대장, 시사도 썼고
‎리베카의 메시지도 이용했어

874
00:49:39,101 --> 00:49:42,813
‎하지만 사용자 01265923010은?

875
00:49:42,896 --> 00:49:44,648
‎맞아, 벤은 걔의 포스트를
‎엄청 좋아했잖아

876
00:49:44,731 --> 00:49:47,776
‎몇 달간 좋아요를 다 누르다가
‎갑자기 관뒀지

877
00:49:47,859 --> 00:49:50,445
‎애나에 대한 알림으로
‎부활할 가능성이

878
00:49:50,529 --> 00:49:52,030
‎92.3%라고 계산됐어

879
00:49:53,907 --> 00:49:55,993
‎"새로운 관계"

880
00:49:56,535 --> 00:49:57,494
‎애나의 새 친구와 말이야

881
00:49:58,495 --> 00:50:04,001
‎"벤이 스마트폰을 포기하고
‎경과한 시간"

882
00:50:24,354 --> 00:50:26,023
‎"네 전 여친에게
‎새 남자 친구가 생겼어!"

883
00:50:26,106 --> 00:50:27,315
‎말도 안 돼

884
00:50:35,657 --> 00:50:36,616
‎좋아

885
00:50:37,576 --> 00:50:38,785
‎"애나와 루이즈"

886
00:50:38,869 --> 00:50:39,703
‎뭐라고?

887
00:50:41,621 --> 00:50:42,789
‎짠, 부활했어!

888
00:50:42,873 --> 00:50:44,374
‎이제 다시 돈 벌어 보자

889
00:50:44,458 --> 00:50:46,334
‎그리고 전 세계와 연결하는 거야

890
00:50:46,418 --> 00:50:48,920
‎벤이 좋아할 만한 정보를
‎다 주겠어

891
00:50:49,755 --> 00:50:53,717
‎피드가 벤한테 좋을까 하는
‎생각도 해 봤어?

892
00:50:57,220 --> 00:50:58,221
‎- 아니
‎- 아니

893
00:51:17,657 --> 00:51:19,076
‎네게 주문을 걸어

894
00:51:25,040 --> 00:51:26,374
‎넌 내 거니까

895
00:51:34,674 --> 00:51:36,593
‎지금 하는 일을 멈춰

896
00:51:41,181 --> 00:51:42,265
‎난 거짓말 안 해

897
00:51:42,349 --> 00:51:44,893
‎"A/B 테스트, 극 중도파"

898
00:51:44,976 --> 00:51:46,686
‎아니, 거짓말 아니야

899
00:51:49,981 --> 00:51:51,817
‎난 도저히 못 참겠어

900
00:51:53,026 --> 00:51:54,611
‎네가 돌아다니는걸

901
00:51:55,612 --> 00:51:57,239
‎네가 더 잘 알잖아

902
00:51:58,782 --> 00:52:02,077
‎네가 실망시키는 걸 못 견디겠어

903
00:52:06,456 --> 00:52:08,375
‎네게 주문을 걸어

904
00:52:12,379 --> 00:52:14,840
‎넌 내 거니까

905
00:52:18,718 --> 00:52:19,845
‎넌 내 거야

906
00:52:20,929 --> 00:52:24,015
‎당신이 페이스북에 있다고
‎생각해 봐요

907
00:52:24,766 --> 00:52:29,312
‎당신은 당신에 대해
‎모든 것을 아는 인공 지능과

908
00:52:29,396 --> 00:52:31,314
‎맞서고 있는 겁니다

909
00:52:31,398 --> 00:52:34,568
‎당신의 행동도 예측할 수 있는데
‎당신은 전혀 모르고 있어요

910
00:52:34,651 --> 00:52:37,404
‎거기 고양이 비디오와
‎생일 정보가 있다는 것만 빼고요

911
00:52:37,821 --> 00:52:39,656
‎그건 공정한 싸움이 아니에요

912
00:52:41,575 --> 00:52:43,869
‎잠꾸러기 벤, 학교 가야지

913
00:52:51,126 --> 00:52:51,960
‎벤?

914
00:53:02,679 --> 00:53:03,513
‎벤

915
00:53:05,182 --> 00:53:06,057
‎일어나

916
00:53:07,225 --> 00:53:08,894
‎학교 가야지, 얼른

917
00:53:13,231 --> 00:53:16,735
‎"인간적 기술 센터"

918
00:53:31,374 --> 00:53:33,543
‎- 오늘 좀 어때요?
‎- 긴장돼요

919
00:53:33,627 --> 00:53:34,628
‎- 그래요?
‎- 네

920
00:53:37,380 --> 00:53:39,049
‎우리는 기술이

921
00:53:39,132 --> 00:53:42,969
‎인간의 힘과 지성을
‎압도할 때를 기다리고 있었습니다

922
00:53:43,053 --> 00:53:45,096
‎기술적 특이점을 넘어
‎우리의 일을 대신하고

923
00:53:45,180 --> 00:53:47,015
‎인간보다 똑똑해질 때를 말이죠

924
00:53:48,141 --> 00:53:50,101
‎하지만 그 전에 앞서...

925
00:53:50,977 --> 00:53:55,565
‎기술은 인간의 약점을
‎압도하기 시작했습니다

926
00:53:57,484 --> 00:54:02,030
‎바로 중독, 분극화, 급진화

927
00:54:02,113 --> 00:54:04,741
‎분노와 허영의 만연함을

928
00:54:04,824 --> 00:54:06,368
‎기초로 하고서 말이죠

929
00:54:07,702 --> 00:54:09,913
‎이건 인간의 본능을 압도하며

930
00:54:10,538 --> 00:54:13,500
‎인간성에 대한 체크메이트입니다

931
00:54:30,558 --> 00:54:31,434
‎미안해

932
00:54:41,736 --> 00:54:44,656
‎저는 페이스북의 피드가

933
00:54:45,198 --> 00:54:49,828
‎얼마나 잘못됐는지
‎사람들을 이해시키기 위해서

934
00:54:49,911 --> 00:54:51,454
‎위키피디아를 예로 듭니다

935
00:54:51,538 --> 00:54:52,872
‎"새 탭"

936
00:54:52,956 --> 00:54:55,709
‎위키피디아에 가면
‎다른 사람과 똑같은 페이지가 뜨죠

937
00:54:55,792 --> 00:54:56,960
‎"위키피디아, 공짜 백과사전"

938
00:54:57,043 --> 00:55:00,297
‎온라인에서 공통점을 갖는
‎몇 안 되는 것이에요

939
00:55:00,380 --> 00:55:03,425
‎그런데 생각해 보세요
‎위키피디아가 이러는 거예요

940
00:55:03,508 --> 00:55:07,178
‎'각각의 사람들에게 맞춰진
‎정의를 보여 줄 것이고'

941
00:55:07,262 --> 00:55:09,472
‎'그렇게 함으로써 돈을 벌 거야'

942
00:55:09,556 --> 00:55:13,435
‎그래서 당신을 위키피디아가
‎감시하고 계산하기 시작합니다

943
00:55:13,518 --> 00:55:17,188
‎'어떻게 해야 이 사용자를'

944
00:55:17,272 --> 00:55:19,899
‎'저 상품을 위해 바꿀 수 있을까?'

945
00:55:19,983 --> 00:55:21,818
‎그리고 항목이 바뀌는 거예요

946
00:55:22,444 --> 00:55:23,570
‎상상이 돼요?

947
00:55:23,653 --> 00:55:24,738
‎상상할 수 있어야죠

948
00:55:24,821 --> 00:55:26,823
‎왜냐하면 페이스북이
‎지금 그러고 있으니까요

949
00:55:26,906 --> 00:55:28,992
‎유튜브 피드도 마찬가지고요

950
00:55:29,075 --> 00:55:31,786
‎구글에서 '기후 변화'라는
‎단어를 입력하면

951
00:55:31,870 --> 00:55:34,998
‎거주지에 따라서
‎다른 결과를 보게 될 겁니다

952
00:55:35,081 --> 00:55:36,082
‎"기후 변화는..."

953
00:55:36,166 --> 00:55:38,460
‎어떤 도시에서는
‎이런 자동 완성이 뜰 거예요

954
00:55:38,543 --> 00:55:40,462
‎'기후 변화는 거짓말'이라고요

955
00:55:40,545 --> 00:55:42,047
‎다른 경우엔 이렇게 뜰 겁니다

956
00:55:42,130 --> 00:55:44,841
‎'기후 변화는
‎자연의 파괴를 야기한다'

957
00:55:44,924 --> 00:55:48,428
‎그건 기후 변화에 대한
‎진실이 아니라

958
00:55:48,511 --> 00:55:51,097
‎구글링을 하는 장소와

959
00:55:51,181 --> 00:55:53,600
‎구글이 당신에 대해
‎아는 것에 달린 거예요

960
00:55:55,185 --> 00:55:58,021
‎서로 아주 가까운
‎두 친구가 있어요

961
00:55:58,104 --> 00:56:00,190
‎그 둘은 친구 목록도
‎거의 똑같아서

962
00:56:00,273 --> 00:56:02,817
‎이렇게 생각합니다
‎'페이스북 피드를 보면'

963
00:56:02,901 --> 00:56:06,738
‎'똑같은 것들이 뜰 거야'
‎근데 그렇지가 않아요

964
00:56:06,821 --> 00:56:08,448
‎둘은 완전히 다른 세상을 봅니다

965
00:56:08,531 --> 00:56:10,575
‎왜냐하면 그건 컴퓨터에 의해
‎각자에게 완벽하게

966
00:56:10,658 --> 00:56:12,035
‎계산된 세상이거든요

967
00:56:12,118 --> 00:56:14,245
‎"방송 중"

968
00:56:14,329 --> 00:56:18,416
‎어떻게 생각해 보면
‎27억 개의 '트루먼 쇼'입니다

969
00:56:18,500 --> 00:56:21,294
‎각자에게 각각의 현실이 있고

970
00:56:22,670 --> 00:56:23,671
‎사실이 있는 거죠

971
00:56:23,755 --> 00:56:27,008
‎왜 트루먼이 지금까지
‎그의 세계의 진실을

972
00:56:27,092 --> 00:56:30,095
‎알아내지 못했다고 생각하시나요?

973
00:56:31,054 --> 00:56:34,140
‎우리는 눈앞에 주어진 현실을
‎받아들이니까요

974
00:56:34,224 --> 00:56:35,141
‎그게 전부예요

975
00:56:35,225 --> 00:56:36,393
‎"방송 중"

976
00:56:36,476 --> 00:56:41,064
‎시간이 지나면 다들 자신과
‎동의한다는 착각에 빠집니다

977
00:56:41,147 --> 00:56:44,067
‎뉴스 피드에서
‎자꾸 비슷한 말만 들리니까요

978
00:56:44,567 --> 00:56:49,072
‎그리고 그렇게 되면
‎정말 쉽게 조종당하게 됩니다

979
00:56:49,155 --> 00:56:51,741
‎마술사에게 현혹되는 것과
‎똑같이 말이죠

980
00:56:51,825 --> 00:56:54,953
‎마술사는 카드를 보여 주며
‎아무 카드나 고르라고 하지만

981
00:56:55,453 --> 00:56:57,914
‎당신은 이미
‎다 조작된 것이라는 걸 모르고

982
00:56:58,456 --> 00:57:00,583
‎그들이 고르게 만든 카드를
‎고르는 겁니다

983
00:57:00,667 --> 00:57:03,169
‎페이스북도 똑같아요
‎페이스북은 이러죠

984
00:57:03,253 --> 00:57:06,172
‎'직접 친구를 선택하고
‎팔로우를 할 링크를 고르세요'

985
00:57:06,256 --> 00:57:08,716
‎하지만 다 난센스예요
‎마술사와 똑같죠

986
00:57:08,800 --> 00:57:11,302
‎당신의 뉴스 피드는
‎페이스북이 통제하니까요

987
00:57:11,386 --> 00:57:14,514
‎우리 모두는 일련의 사실들에 따라
‎움직이고 있을 뿐입니다

988
00:57:14,597 --> 00:57:16,474
‎그 규모가 커지면

989
00:57:16,558 --> 00:57:20,770
‎당신이 만든 세계관과
‎모순되는 정보를

990
00:57:20,854 --> 00:57:23,690
‎인지하거나 받아들일 수 없어요

991
00:57:23,773 --> 00:57:28,027
‎즉, 우리는 객관적이고
‎건설적인 개인이 아니란 말이에요

992
00:57:28,778 --> 00:57:32,449
‎눈을 떠, 거짓말을 믿지 마
‎눈을 떠

993
00:57:32,532 --> 00:57:34,451
‎그리고 반대쪽을 봅니다

994
00:57:35,243 --> 00:57:38,746
‎그리고 생각하는 거죠
‎'어떻게 다들 이렇게 멍청하지?'

995
00:57:38,830 --> 00:57:42,125
‎'내가 계속 보고 있는
‎이 정보들을 보라고'

996
00:57:42,208 --> 00:57:44,627
‎'어떻게 그들은 못 보는 거지?'

997
00:57:44,711 --> 00:57:47,297
‎다들 똑같은 정보를
‎못 보는 게 그 이유입니다

998
00:57:47,380 --> 00:57:50,800
‎눈을 뜨고 거짓말을 믿지 마!

999
00:57:52,093 --> 00:57:53,678
‎공화당원들은 어떤 사람이죠?

1000
00:57:53,761 --> 00:57:55,472
‎무식한 사람들요

1001
00:57:55,555 --> 00:57:58,933
‎민주당은 정당이 아니라
‎범죄 조직입니다

1002
00:57:59,017 --> 00:58:03,188
‎퓨 리서치 센터에서
‎1만 명의 미국인을 연구했는데

1003
00:58:03,271 --> 00:58:05,315
‎지난 20년을 통틀어

1004
00:58:05,398 --> 00:58:09,152
‎개인적, 정치적으로
‎가장 분극화되었다고 합니다

1005
00:58:11,821 --> 00:58:14,199
‎공화당원의 3분의 1 이상이

1006
00:58:14,282 --> 00:58:16,826
‎민주당이 국가에
‎위협적인 존재라고 하며

1007
00:58:16,910 --> 00:58:20,580
‎민주당원의 25% 이상이
‎공화당에 대해 같은 말을 합니다

1008
00:58:20,663 --> 00:58:22,499
‎우리가 논의하는
‎정치적 분극화와 같은

1009
00:58:22,582 --> 00:58:24,417
‎심각한 문제들이

1010
00:58:24,501 --> 00:58:28,046
‎케이블 TV에도 산재해 있습니다

1011
00:58:28,129 --> 00:58:31,007
‎미디어에도 우리의 관심을

1012
00:58:31,090 --> 00:58:33,343
‎광고주에게 팔아서 수익을 올리는

1013
00:58:33,426 --> 00:58:35,762
‎사업 모델이 있는데

1014
00:58:35,845 --> 00:58:38,890
‎인터넷은 새롭고
‎더 효율적인 도구인 것이죠

1015
00:58:40,391 --> 00:58:44,145
‎유튜브에서는
‎유튜브 추천에서 일했어요

1016
00:58:44,229 --> 00:58:47,148
‎제가 작업한 알고리즘이
‎사회의 분극화를

1017
00:58:47,232 --> 00:58:50,401
‎더 심하게 만들어서 걱정이 됩니다

1018
00:58:50,485 --> 00:58:53,112
‎하지만 사용 시간의 관점에서 보면

1019
00:58:53,196 --> 00:58:57,617
‎이런 분극화는 사람들을
‎잡아두는 데 매우 효과적입니다

1020
00:58:58,785 --> 00:59:00,870
‎선생들이 이런 걸 가르치는 이유는

1021
00:59:00,954 --> 00:59:02,288
‎돈을 받기 때문이야

1022
00:59:02,372 --> 00:59:04,207
‎- 말도 안 되는 거지
‎- 안녕, 벤지

1023
00:59:04,916 --> 00:59:06,292
‎오늘 축구 연습 안 해?

1024
00:59:06,376 --> 00:59:08,878
‎하는데 밀린 뉴스를 보느라고

1025
00:59:08,962 --> 00:59:11,506
‎직접 조사해 봐
‎극 중도파에서 말하는 건

1026
00:59:11,589 --> 00:59:14,008
‎언제부터 네가 보는 게
‎뉴스가 됐지?

1027
00:59:15,552 --> 00:59:18,721
‎누나처럼 얘들도
‎얼마나 엉망인지 말하는 거야

1028
00:59:19,305 --> 00:59:21,140
‎하지만 이건 프로파간다일 뿐이야

1029
00:59:21,224 --> 00:59:24,060
‎둘 다 사실이 아니야
‎말이 되는 게 중요한 거지

1030
00:59:24,769 --> 00:59:26,938
‎벤, 진심이야
‎이런 건 너한테 안 좋아

1031
00:59:27,021 --> 00:59:28,690
‎축구 연습하러 가야지

1032
00:59:35,154 --> 00:59:37,490
‎그냥 넘길 수가 없어서
‎이런 걸 공유하는 거야

1033
00:59:37,574 --> 00:59:41,077
‎속으면 안 돼
‎옳은 일이 아니라고, 알겠어?

1034
00:59:41,160 --> 00:59:43,121
‎사람들은 알고리즘이

1035
00:59:43,204 --> 00:59:46,833
‎자신에게 필요한 걸 주기 위해
‎만들어졌다고 생각하는데 아니에요

1036
00:59:46,916 --> 00:59:52,589
‎알고리즘은 사람들의
‎눈을 끌 만한 것을 찾는 거고

1037
00:59:52,672 --> 00:59:56,217
‎당신의 취향에 맞는 것을
‎찾으려고 하는 겁니다

1038
00:59:56,301 --> 00:59:59,262
‎그리고 이런 비디오 중
‎하나를 보게 되면

1039
00:59:59,846 --> 01:00:02,223
‎계속 반복해서 추천할 거예요

1040
01:00:02,682 --> 01:00:04,601
‎이런 일이 일어나길
‎바라는 사람은 없어요

1041
01:00:05,018 --> 01:00:07,812
‎다만 이게 추천 시스템이
‎하는 일이라는 겁니다

1042
01:00:07,895 --> 01:00:10,815
‎유명한 농구 선수인
‎카이리 어빙은

1043
01:00:11,482 --> 01:00:14,235
‎지구가 평평하다고 믿었다가
‎나중에 사과를 했어요

1044
01:00:14,319 --> 01:00:16,112
‎그리고 유튜브를 비난했죠

1045
01:00:16,487 --> 01:00:18,656
‎유튜브를 클릭하면

1046
01:00:18,740 --> 01:00:21,534
‎헤어나올 수 없게 되잖아요

1047
01:00:21,618 --> 01:00:23,369
‎나중에 라디오 방송에 나와서

1048
01:00:23,453 --> 01:00:25,955
‎사람들을 호도할 작정이
‎아니었다고 사과했을 때

1049
01:00:26,039 --> 01:00:29,667
‎이런 말을 한 학생도 있습니다
‎'둥근 지구를 믿는 사람들 짓이야'

1050
01:00:31,044 --> 01:00:33,963
‎평평한 지구 음모론은
‎알고리즘에 의해

1051
01:00:34,047 --> 01:00:37,634
‎수억 번이나 추천되었습니다

1052
01:00:37,717 --> 01:00:43,890
‎속는 사람들이
‎멍청하다고 생각하기 쉽지만

1053
01:00:43,973 --> 01:00:46,893
‎알고리즘은 하루가 다르게
‎똑똑해집니다

1054
01:00:46,976 --> 01:00:50,063
‎오늘은 지구가 평평하다고
‎사람들을 속이고

1055
01:00:50,146 --> 01:00:53,566
‎내일은 당신을 거짓으로
‎속이려 할지도 모른다는 거죠

1056
01:00:54,317 --> 01:00:57,820
‎11월 7일에
‎'#피자게이트'가 탄생했습니다

1057
01:00:57,904 --> 01:00:59,197
‎피자게이트는...

1058
01:01:00,782 --> 01:01:01,658
‎아이고

1059
01:01:03,159 --> 01:01:06,913
‎어떻게 해서 생긴 건지
‎아직도 잘 모르겠는데

1060
01:01:06,996 --> 01:01:12,377
‎피자를 주문하는 게 인신매매를
‎뜻한다는 거였어요

1061
01:01:12,460 --> 01:01:15,046
‎페이스북에서 그룹이 커지자

1062
01:01:15,129 --> 01:01:19,967
‎페이스북 추천 엔진이
‎일반적인 사용자들에게

1063
01:01:20,051 --> 01:01:21,761
‎피자게이트 그룹 가입을
‎권유하기 시작했어요

1064
01:01:21,844 --> 01:01:27,392
‎예를 들어 백신 반대론자나
‎비행운 음모론자처럼

1065
01:01:27,475 --> 01:01:30,645
‎페이스북 알고리즘이 파악한

1066
01:01:30,728 --> 01:01:33,106
‎음모론을 쉽게 믿는 사람들에게

1067
01:01:33,481 --> 01:01:36,859
‎페이스북 추천 엔진이
‎피자게이트 그룹을 띄운 거예요

1068
01:01:36,943 --> 01:01:41,072
‎결국 한 남자가 총을 가지고

1069
01:01:41,155 --> 01:01:44,617
‎지하실에 갇힌 아이들을
‎구하겠다며

1070
01:01:44,701 --> 01:01:47,036
‎지하실도 없는 피자 가게로
‎가는 것으로 끝이 났죠

1071
01:01:47,120 --> 01:01:49,997
‎- 여기서 뭘 했습니까?
‎- 아무것도 없는지 확인하려고요

1072
01:01:50,581 --> 01:01:52,333
‎- 뭘 확인하려고요?
‎- 소아성애자들요

1073
01:01:52,417 --> 01:01:53,793
‎- 뭐라고요?
‎- 소아성애자들요

1074
01:01:53,876 --> 01:01:55,878
‎피자게이트 얘기야

1075
01:01:55,962 --> 01:02:00,216
‎이건 모든 소셜 네트워크에 전파된

1076
01:02:00,299 --> 01:02:03,678
‎음모론의 한 예입니다

1077
01:02:03,761 --> 01:02:06,097
‎소셜 네트워크의 추천 엔진이

1078
01:02:06,180 --> 01:02:07,974
‎한 번도 피자게이트를

1079
01:02:08,057 --> 01:02:10,643
‎검색 안 해 본 사람들에게
‎자발적으로 띄운 거예요

1080
01:02:10,727 --> 01:02:12,687
‎"피자게이트, 민주당과
‎소아성애자들의 딥 디쉬"

1081
01:02:12,770 --> 01:02:14,439
‎MIT의 한 연구에 따르면

1082
01:02:14,522 --> 01:02:19,444
‎트위터에서 가짜 뉴스가
‎진짜 뉴스보다 6배 빨리 퍼집니다

1083
01:02:19,902 --> 01:02:21,863
‎세상이 어떻게 될까요?

1084
01:02:21,946 --> 01:02:24,741
‎한쪽이 다른 쪽보다
‎6배나 유리한데 말이죠

1085
01:02:25,283 --> 01:02:27,660
‎이렇게 생각하시면 돼요

1086
01:02:27,744 --> 01:02:31,706
‎인간의 행동이란 바닥을
‎이렇게 기울인 거라고요

1087
01:02:31,789 --> 01:02:34,709
‎어떤 행동은 어렵게 만들고
‎어떤 건 쉽게 만든 거죠

1088
01:02:34,792 --> 01:02:37,420
‎언제나 언덕을 올라갈 순 있지만

1089
01:02:37,503 --> 01:02:38,796
‎그러는 사람은 적죠

1090
01:02:38,880 --> 01:02:43,092
‎그리고 그걸 사회 전체에 적용하면
‎수십억 명의 사람들의

1091
01:02:43,176 --> 01:02:45,970
‎생각과 행동을
‎바꿀 수 있는 거예요

1092
01:02:46,053 --> 01:02:52,018
‎우린 거짓 정보에
‎편향된 시스템을 만들었어요

1093
01:02:52,643 --> 01:02:54,437
‎우리가 원해서가 아니라

1094
01:02:54,520 --> 01:02:58,816
‎거짓 정보가
‎회사에 더 이익이라서입니다

1095
01:02:59,400 --> 01:03:01,319
‎진실보다도요, 진실은 지루하죠

1096
01:03:01,986 --> 01:03:04,489
‎허위 정보로 이윤을 남기는
‎사업 모델입니다

1097
01:03:04,906 --> 01:03:08,159
‎제재받지 않은 메시지가
‎최고의 가격으로

1098
01:03:08,701 --> 01:03:11,287
‎누구에게나 전달되도록 해서
‎돈을 버는 거죠

1099
01:03:11,662 --> 01:03:13,956
‎기후 변화 때문에? 그래

1100
01:03:14,040 --> 01:03:16,751
‎그건 거짓말이야, 진짜라고
‎그게 포인트야

1101
01:03:16,834 --> 01:03:20,046
‎더 많이 언급할수록
‎우리를 더 갈라놓을 수 있고

1102
01:03:20,129 --> 01:03:22,423
‎힘을 더 가질수록
‎통제력도 더 가지는 거야

1103
01:03:22,507 --> 01:03:25,468
‎페이스북에는 이런 뉴스 피드
‎포스트가 수없이 많습니다

1104
01:03:26,552 --> 01:03:29,180
‎뭐가 진짜고 진실인지
‎그들은 알 수가 없어요

1105
01:03:29,972 --> 01:03:33,726
‎그래서 이 대화가
‎지금 굉장히 중요한 겁니다

1106
01:03:33,810 --> 01:03:37,021
‎코로나바이러스만
‎빨리 퍼지는 게 아니라

1107
01:03:37,104 --> 01:03:40,191
‎바이러스에 대한 잘못된 정보도
‎온라인에 널리 퍼지고 있습니다

1108
01:03:40,274 --> 01:03:43,694
‎물을 많이 마시면
‎코로나바이러스가 배출된다는 건

1109
01:03:43,778 --> 01:03:47,490
‎소셜 미디어에서 퍼지는
‎거짓말 중 하나입니다

1110
01:03:47,573 --> 01:03:50,451
‎정부가 다 계획하고
‎바이러스를 만든 거예요

1111
01:03:50,535 --> 01:03:53,496
‎다른 나라의 반응에 대해
‎시뮬레이션도 했다고요

1112
01:03:53,955 --> 01:03:55,581
‎코로나바이러스는 거짓말이야

1113
01:03:56,165 --> 01:03:57,959
‎사스, 코로나바이러스

1114
01:03:58,376 --> 01:04:01,045
‎이게 언제 만들어졌는지 봐
‎2018년도야

1115
01:04:01,128 --> 01:04:03,798
‎내 생각에는 미국 정부가
‎시작한 것 같아

1116
01:04:04,215 --> 01:04:07,343
‎아픈 사람은 없어, 아무도 없다고

1117
01:04:07,426 --> 01:04:09,095
‎아픈 사람을 아는 사람도 없고

1118
01:04:09,512 --> 01:04:13,015
‎어쩌면 정부가 코로나바이러스를
‎핑계로 쓰는 걸지도 몰라

1119
01:04:13,099 --> 01:04:15,643
‎다들 집에 있을 때
‎무언가를 하려고 말이야

1120
01:04:15,726 --> 01:04:18,020
‎코로나바이러스가
‎사람을 죽이는 게 아니라

1121
01:04:18,104 --> 01:04:20,940
‎그들이 내뿜는 5G 방사능이
‎사람들을 죽이는 거야

1122
01:04:21,023 --> 01:04:22,525
‎"무너지고 불태워지는 5G 기지국"

1123
01:04:22,608 --> 01:04:24,569
‎우린 소문에 시달리고 있어요

1124
01:04:25,403 --> 01:04:28,823
‎사람들이 실제로
‎휴대폰 기지국을 불태우고

1125
01:04:28,906 --> 01:04:32,201
‎러시아와 중국이 음모론을
‎퍼트리는 것도 봤어요

1126
01:04:32,285 --> 01:04:35,246
‎오늘 오전, 우크라이나에서
‎공포와 시위가...

1127
01:04:35,329 --> 01:04:38,916
‎사람들을 진실을 분간할 수 없고
‎이젠 목숨마저 위협받습니다

1128
01:04:40,001 --> 01:04:42,628
‎코로나바이러스에 대한
‎가짜 정보의 출처들이

1129
01:04:42,712 --> 01:04:45,798
‎약 5,200만 건이나 열람됐습니다

1130
01:04:45,882 --> 01:04:50,094
‎그러니까 '실버 솔루션'이
‎효과가 있다는 말이죠?

1131
01:04:50,177 --> 01:04:54,140
‎코로나바이러스 변종에 대한
‎검사는 하지 않았지만...

1132
01:04:54,223 --> 01:04:57,226
‎코로나바이러스에 대해
‎우리가 보고 있는 건

1133
01:04:57,310 --> 01:05:00,104
‎정보 생태계에서 일어나는 일의
‎극단적인 예입니다

1134
01:05:00,187 --> 01:05:01,022
‎"하일 휘트머"

1135
01:05:01,105 --> 01:05:05,026
‎소셜 미디어는
‎가십과 풍문을 증폭시켜서

1136
01:05:05,109 --> 01:05:07,111
‎진실을 알 수 없게 만듭니다

1137
01:05:07,194 --> 01:05:08,946
‎우리가 무엇에 신경을 쓰건 말이죠

1138
01:05:26,130 --> 01:05:27,465
‎아직 축구팀 소속이지?

1139
01:05:30,468 --> 01:05:34,430
‎난 연습 전에 간식 먹을 건데
‎같이 갈래?

1140
01:05:37,642 --> 01:05:38,684
‎됐어

1141
01:05:45,066 --> 01:05:47,526
‎지금 10명 중에 9명이
‎불만을 갖고 있어

1142
01:05:47,610 --> 01:05:50,613
‎극 중도파는 여느 정치 운동과
‎다를 바가 없다고

1143
01:05:50,696 --> 01:05:54,492
‎우리는 맞서는 거야
‎이 소음에 맞서는 거라고

1144
01:05:54,575 --> 01:05:57,036
‎너희는 내 동료야, 난 너희를 믿어

1145
01:05:59,246 --> 01:06:02,583
‎- 극 중도파 콘텐츠 너무 좋네
‎- 완전히 푹 빠졌어

1146
01:06:02,667 --> 01:06:03,626
‎경매 진행 중

1147
01:06:04,627 --> 01:06:08,547
‎입찰자 843명, 군수 회사에
‎4.35센트에 팔았어

1148
01:06:08,631 --> 01:06:10,800
‎이벤트 홍보 좀 해 보자

1149
01:06:10,883 --> 01:06:13,511
‎이번 주 후반에
‎벤의 지역에서 있을 집회들이야

1150
01:06:13,594 --> 01:06:15,179
‎나도 새 블로거를 준비했어

1151
01:06:17,890 --> 01:06:22,979
‎솔직히 말해서
‎난 뭐든지 할 각오가 되어 있어

1152
01:06:23,062 --> 01:06:24,939
‎뭐든지 말이야

1153
01:06:32,154 --> 01:06:33,114
‎- 구독하고
‎- 벤?

1154
01:06:33,197 --> 01:06:35,908
‎그리고 꼭 돌아와, 왜냐하면...

1155
01:06:36,659 --> 01:06:38,869
‎정말 큰일이 생길 테니까

1156
01:06:38,953 --> 01:06:40,162
‎진짜 큰일이야

1157
01:06:40,788 --> 01:06:45,292
‎페이스북의 문제 중 하나는
‎역사상 최고의

1158
01:06:45,793 --> 01:06:47,920
‎설득 도구라는 겁니다

1159
01:06:48,004 --> 01:06:52,508
‎그게 독재자나 권위주의자의
‎손에 들어간다고 생각해 보세요

1160
01:06:53,718 --> 01:06:57,638
‎국민들을 통제하는 것에
‎페이스북만큼

1161
01:06:57,722 --> 01:07:01,308
‎효과적인 도구가 없습니다

1162
01:07:04,937 --> 01:07:07,398
‎정부나 악당들이 소셜 미디어를

1163
01:07:07,481 --> 01:07:10,985
‎무기화하는 것의
‎가장 골치 아픈 문제 중 하나는

1164
01:07:11,610 --> 01:07:13,612
‎실제 오프라인 피해를
‎초래한다는 것이에요

1165
01:07:13,696 --> 01:07:15,072
‎가장 많은 주목을 받은 예는

1166
01:07:15,156 --> 01:07:17,658
‎미얀마에서
‎일어난 일이라고 생각합니다

1167
01:07:17,742 --> 01:07:19,160
‎"미얀마 대통령실"

1168
01:07:19,243 --> 01:07:21,203
‎미얀마 사람들은
‎인터넷이라고 하면

1169
01:07:21,287 --> 01:07:22,913
‎페이스북을 생각해요

1170
01:07:22,997 --> 01:07:25,916
‎그리고 사람들이 휴대폰을 살 때
‎휴대폰 가게 주인이

1171
01:07:26,000 --> 01:07:29,920
‎페이스북을 미리 설치하고
‎계정을 열어 주는 일이

1172
01:07:30,004 --> 01:07:31,505
‎빈번하게 일어납니다

1173
01:07:31,589 --> 01:07:34,884
‎그래서 사람들이 휴대폰을 사면
‎제일 먼저 열어 보는 앱이며

1174
01:07:34,967 --> 01:07:37,303
‎사용법을 아는 앱이
‎페이스북이란 거죠

1175
01:07:38,179 --> 01:07:41,891
‎페이스북이 미얀마의 증오 발언을
‎통제하는 것이 힘들어지고 있다는

1176
01:07:41,974 --> 01:07:43,809
‎충격적인
‎조사 결과가 발표됐습니다

1177
01:07:43,893 --> 01:07:46,020
‎"모슬렘을 그만 죽여"

1178
01:07:46,103 --> 01:07:49,190
‎페이스북이 군벌과 악당들에게
‎대중의 의견을 조작하는

1179
01:07:49,273 --> 01:07:51,776
‎새로운 방법을 제시한 거예요

1180
01:07:51,859 --> 01:07:55,529
‎그리고 로힝야 모슬렘에 대한
‎폭력과 대량 학살을

1181
01:07:55,613 --> 01:07:57,406
‎조장했으며

1182
01:07:58,115 --> 01:07:59,867
‎마을을 불태우고

1183
01:07:59,950 --> 01:08:03,704
‎대량 강간과 비인간적인
‎심각한 범죄로

1184
01:08:03,788 --> 01:08:08,209
‎70만 명이 넘는 로힝야 모슬렘이
‎국외로 도피했습니다

1185
01:08:11,170 --> 01:08:16,550
‎열성적인 선동가들이
‎예전에는 없었던 게 아니에요

1186
01:08:16,634 --> 01:08:19,762
‎문제는 조작성을 띈 내러티브를

1187
01:08:19,845 --> 01:08:23,724
‎너무도 쉽게 퍼트릴 수 있는
‎플랫폼이 있다는 거예요

1188
01:08:23,808 --> 01:08:25,434
‎돈도 별로 들이지 않고요

1189
01:08:25,518 --> 01:08:27,520
‎제가 선거를 조작하고 싶으면

1190
01:08:27,895 --> 01:08:30,564
‎페이스북의
‎음모론 그룹에 들어가서

1191
01:08:30,648 --> 01:08:32,233
‎지구 평면설을 믿는 사람들과

1192
01:08:32,316 --> 01:08:34,443
‎달 착륙을 믿지 않는

1193
01:08:34,860 --> 01:08:37,780
‎수백 명의 사람들을 찾은 다음에

1194
01:08:37,863 --> 01:08:41,450
‎페이스북에 이런 사용자들을
‎수천 명 찾아달라고 해요

1195
01:08:42,118 --> 01:08:46,080
‎그런 수천 명의 사용자들 목록을
‎페이스북은 기꺼이 보내 줄 것이고

1196
01:08:46,163 --> 01:08:49,250
‎저는 더 많은 음모론을
‎그들에게 제공할 수 있습니다

1197
01:08:51,168 --> 01:08:52,837
‎3.4센트에 낙찰

1198
01:08:53,379 --> 01:08:54,922
‎새로운 극 중도파 영상 홍보

1199
01:08:55,005 --> 01:08:56,048
‎또 다른 광고 준비 완료

1200
01:08:58,509 --> 01:09:02,138
‎알고리즘과 조작적인 정치인들은
‎우리를 자극하는 법의

1201
01:09:02,221 --> 01:09:04,056
‎전문가가 되고 있습니다

1202
01:09:04,140 --> 01:09:08,352
‎가짜 뉴스를 능숙하게 만들고
‎진짜처럼 받아들여지게 해서

1203
01:09:08,435 --> 01:09:10,813
‎우리가 그런 거짓말들을
‎믿게 만듭니다

1204
01:09:10,896 --> 01:09:12,606
‎우리의 자아와 신념에
‎대한 통제력을

1205
01:09:12,690 --> 01:09:14,150
‎점점 상실하는 것 같아요

1206
01:09:31,458 --> 01:09:32,668
‎편을 고를 수 있게 말이야

1207
01:09:32,751 --> 01:09:34,879
‎사방에 거짓말이 널려 있어

1208
01:09:34,962 --> 01:09:39,967
‎그들이 권력을 유지하고
‎모든 걸 통제하기 위해서지

1209
01:09:40,050 --> 01:09:44,555
‎우리의 마음을 통제해서
‎비밀을 지키기 위해서라고

1210
01:09:44,638 --> 01:09:46,390
‎"진실을 의심해"

1211
01:09:46,473 --> 01:09:48,517
‎"질병 대책 본부가 백신과
‎자폐증 은폐를 인정하다"

1212
01:09:48,601 --> 01:09:50,895
‎아무도 진실을 믿지 않는
‎세상을 상상해 보세요

1213
01:09:50,978 --> 01:09:53,314
‎"모두에게 통하는 백신은 없다
‎우리의 유전자가 증거임"

1214
01:09:53,397 --> 01:09:55,649
‎다들 정부가
‎거짓말을 한다고 믿어요

1215
01:09:56,317 --> 01:09:58,444
‎모든 게 음모론이고요

1216
01:09:58,527 --> 01:10:01,197
‎'누구도 믿어선 안 돼
‎난 반대편이 증오스러워'

1217
01:10:01,280 --> 01:10:02,698
‎다 그쪽으로 가고 있어요

1218
01:10:02,781 --> 01:10:06,160
‎유럽의 정치적 지각 변동이
‎계속 이어지고 있습니다

1219
01:10:06,243 --> 01:10:08,412
‎이번에는 이탈리아와 스페인입니다

1220
01:10:08,495 --> 01:10:11,999
‎전체적으로 유럽의
‎전통적 중도주의 연합이 패배하고

1221
01:10:12,082 --> 01:10:15,002
‎극우와 극좌파가 부상했습니다

1222
01:10:17,588 --> 01:10:19,048
‎"중도파"

1223
01:10:19,757 --> 01:10:20,591
‎물러나

1224
01:10:21,675 --> 01:10:22,509
‎좋아, 가자

1225
01:10:28,390 --> 01:10:31,268
‎이 계정들은 의도적으로

1226
01:10:31,352 --> 01:10:33,896
‎홍콩의 정치적 분열을
‎일으켰습니다

1227
01:10:38,609 --> 01:10:39,610
‎좋아, 벤

1228
01:10:42,863 --> 01:10:45,032
‎정보의 원천이 오직

1229
01:10:45,115 --> 01:10:48,410
‎페이스북과 소셜 미디어인
‎나라는 어떻나요?

1230
01:10:48,953 --> 01:10:50,871
‎민주주의가 금세 무너집니다

1231
01:10:50,955 --> 01:10:51,830
‎6개월 만에요

1232
01:10:51,914 --> 01:10:53,791
‎시카고에서의 혼란 이후로

1233
01:10:53,874 --> 01:10:57,044
‎시위자들과 지지자들 사이의
‎격렬한 충돌이...

1234
01:10:58,003 --> 01:11:01,632
‎민주주의가 위기를 맞고 있습니다

1235
01:11:01,715 --> 01:11:04,343
‎우리는 민주주의에 대한
‎전 세계적인 공격을 보고 있어요

1236
01:11:04,426 --> 01:11:05,427
‎"극 중도파"

1237
01:11:05,511 --> 01:11:07,930
‎대부분의
‎민주주의 선거를 하는 나라들이

1238
01:11:08,013 --> 01:11:09,723
‎공격을 받았어요

1239
01:11:10,641 --> 01:11:12,518
‎대규모로 일어나고 있어요

1240
01:11:12,601 --> 01:11:15,562
‎정치적 세력이나
‎수백만 달러를 가진 사람들이

1241
01:11:15,646 --> 01:11:18,524
‎케냐나 카메룬을 불안정하게
‎만들고 싶다는 말을 해요

1242
01:11:18,607 --> 01:11:20,651
‎'앙골라? 이 정도면 되겠네'

1243
01:11:20,734 --> 01:11:23,362
‎지난 일요일 브라질에선
‎독특한 선거가 열렸습니다

1244
01:11:23,445 --> 01:11:25,823
‎소셜 미디어에 의지해
‎캠페인을 벌였습니다

1245
01:11:31,036 --> 01:11:33,956
‎우리 IT 업계 사람들이
‎만든 도구가

1246
01:11:34,039 --> 01:11:37,418
‎사회의 구조를 불안정하게 하고
‎침식시키고 있습니다

1247
01:11:37,501 --> 01:11:40,254
‎모든 나라에서 동시다발적으로요

1248
01:11:40,337 --> 01:11:44,258
‎독일, 스페인, 프랑스
‎브라질, 호주 등

1249
01:11:44,591 --> 01:11:46,927
‎세계에서 손꼽히는 선진국들이

1250
01:11:47,428 --> 01:11:49,221
‎서로 자멸하고 있는데

1251
01:11:49,305 --> 01:11:50,931
‎공통점이 뭘까요?

1252
01:11:51,974 --> 01:11:52,975
‎지금 아는 거로 봤을 때

1253
01:11:53,058 --> 01:11:56,312
‎페이스북이 2016년 대선의 결과에
‎영향을 끼쳤다고 보시나요?

1254
01:11:56,854 --> 01:11:58,188
‎어려운 질문이군요

1255
01:11:58,897 --> 01:11:59,773
‎그런데...

1256
01:12:01,275 --> 01:12:04,653
‎실제로는 변수가 너무 많았습니다

1257
01:12:04,737 --> 01:12:07,865
‎페이스북, 트위터, 구글 대표가
‎2016년 선거의

1258
01:12:07,948 --> 01:12:09,450
‎러시아의 개입에 대해

1259
01:12:09,533 --> 01:12:12,578
‎증언하기 위해서
‎이틀째 국회에 소환되었습니다

1260
01:12:12,661 --> 01:12:17,291
‎제삼자에 의한 조작은
‎해킹이 아닙니다

1261
01:12:18,500 --> 01:12:21,003
‎그렇죠? 러시아는
‎페이스북을 해킹 안 했어요

1262
01:12:21,545 --> 01:12:24,965
‎그들은 페이스북이
‎합법적인 광고주와

1263
01:12:25,049 --> 01:12:27,593
‎합법적인 이용자들을 위해
‎만든 도구를

1264
01:12:27,926 --> 01:12:30,346
‎비도덕적인 목적에
‎사용한 것입니다

1265
01:12:32,014 --> 01:12:33,891
‎리모컨으로 하는 전쟁 같아요

1266
01:12:34,475 --> 01:12:36,602
‎국경을 침범하지 않고도

1267
01:12:36,685 --> 01:12:39,229
‎다른 나라를 조종하는 거죠

1268
01:12:39,605 --> 01:12:40,981
‎폭력적인 이미지가 보이는데

1269
01:12:41,065 --> 01:12:43,317
‎쓰레기통이
‎밀고 밀리는 것 같습니다

1270
01:12:43,400 --> 01:12:45,736
‎누구를 뽑으려고 하는지는
‎중요한 게 아니었어요

1271
01:12:46,362 --> 01:12:50,574
‎사회에 분열과 혼란을
‎일으키는 게 목적이었죠

1272
01:12:50,657 --> 01:12:53,035
‎여긴 헌팅턴 비치인데...

1273
01:12:53,118 --> 01:12:54,870
‎양쪽 진영이
‎서로 목소리를 못 듣게 하고

1274
01:12:54,953 --> 01:12:56,413
‎들으려고도 하지 않고

1275
01:12:56,497 --> 01:12:58,123
‎서로 믿지도 않게 만드는 게

1276
01:12:58,207 --> 01:12:59,875
‎목적이었습니다

1277
01:12:59,958 --> 01:13:02,711
‎이곳은 증오심이 드러나서

1278
01:13:02,795 --> 01:13:05,464
‎인종 간 폭력으로 변질된 곳입니다

1279
01:13:05,547 --> 01:13:07,925
‎"버지니아 사태
‎하루에 폭력으로 3명이 사망"

1280
01:13:20,145 --> 01:13:20,979
‎벤!

1281
01:13:21,605 --> 01:13:22,439
‎카산드라!

1282
01:13:22,981 --> 01:13:23,816
‎- 캐시!
‎- 벤!

1283
01:13:23,899 --> 01:13:25,484
‎이리 와! 이리 와!

1284
01:13:27,486 --> 01:13:31,156
‎팔 올리고 무릎 꿇어, 당장

1285
01:13:36,120 --> 01:13:37,204
‎- 진정...
‎- 벤!

1286
01:13:37,287 --> 01:13:38,414
‎야, 손들어!

1287
01:13:39,623 --> 01:13:41,291
‎돌아서 바닥에 엎드려!

1288
01:13:56,807 --> 01:13:59,643
‎최고 입찰자들을 위한 시스템이
‎우리가 원하는 걸까요?

1289
01:14:01,437 --> 01:14:05,399
‎민주주의를 완전히 팔아서
‎그 누구에게나 접근해서

1290
01:14:05,482 --> 01:14:08,694
‎특정 계층에 거짓을 심고
‎문화 전쟁을 일으킬까요?

1291
01:14:09,236 --> 01:14:10,237
‎그런 걸 원하나요?

1292
01:14:14,783 --> 01:14:16,201
‎이 나라의 국민들은

1293
01:14:17,244 --> 01:14:18,620
‎이제 서로 대화하지 않습니다

1294
01:14:19,913 --> 01:14:23,000
‎이 나라 국민들은
‎지난 선거에서 뽑은 사람 때문에

1295
01:14:23,083 --> 01:14:25,127
‎친구와 절교한 사람들입니다

1296
01:14:25,878 --> 01:14:28,422
‎이 나라 국민들은
‎고립되어 있습니다

1297
01:14:28,505 --> 01:14:30,632
‎우리가 옳다고 말하는
‎채널만 보면서 말이죠

1298
01:14:32,259 --> 01:14:36,847
‎저는 부족주의가 우리를
‎망치고 있다고 말하고 싶습니다

1299
01:14:37,389 --> 01:14:39,183
‎미국을 분열시키고 있고

1300
01:14:40,267 --> 01:14:42,853
‎제정신인 성인이 할 짓이 아닙니다

1301
01:14:43,187 --> 01:14:45,314
‎모두에게 각자의 진실을
‎가질 권리가 있다면

1302
01:14:45,397 --> 01:14:49,401
‎타협할 필요도 없고
‎화합할 필요도 없습니다

1303
01:14:49,485 --> 01:14:51,695
‎사람들끼리
‎서로 소통할 필요도 없죠

1304
01:14:52,321 --> 01:14:56,617
‎우리에겐 같이 이해할 수 있는
‎현실이 필요합니다

1305
01:14:57,451 --> 01:14:58,410
‎아니면 나라도 아니에요

1306
01:14:58,494 --> 01:14:59,495
‎"주커버그"

1307
01:14:59,578 --> 01:15:02,998
‎장기적인 해결책으로는
‎실제 사람들과는 다른 패턴을

1308
01:15:03,081 --> 01:15:08,128
‎파악하는 인공 지능 도구를
‎더 만드는 겁니다

1309
01:15:08,212 --> 01:15:11,840
‎우린 기술자들이
‎이 문제를 해결할 능력이 있다고

1310
01:15:11,924 --> 01:15:13,884
‎포장하는 것을 내버려 두고 있어요

1311
01:15:15,135 --> 01:15:16,470
‎그건 거짓말이에요

1312
01:15:17,679 --> 01:15:20,724
‎사람들은 인공 지능이
‎진실을 알 거라고 말하는데

1313
01:15:21,683 --> 01:15:23,685
‎인공 지능은
‎이런 문제를 해결 못 해요

1314
01:15:24,269 --> 01:15:27,189
‎인공 지능은
‎가짜 뉴스 문제를 해결 못 해요

1315
01:15:28,649 --> 01:15:31,026
‎구글은 이런 말을 할
‎자격이 없어요

1316
01:15:31,109 --> 01:15:34,154
‎'이게 음모론인가?
‎이건 진실인가?'

1317
01:15:34,696 --> 01:15:36,240
‎뭐가 진실인지 그들도 모르니까요

1318
01:15:36,823 --> 01:15:40,410
‎그들의 진실은 클릭이 전부입니다

1319
01:15:41,870 --> 01:15:45,123
‎우리가 뭐가 진실인지
‎동의하지 않거나

1320
01:15:45,207 --> 01:15:47,584
‎진실이 있다는 것에
‎동의하지 않으면

1321
01:15:48,293 --> 01:15:49,294
‎우린 끝난 거예요

1322
01:15:49,753 --> 01:15:52,089
‎이건 다른 문제 밑의 문제입니다

1323
01:15:52,172 --> 01:15:54,424
‎왜냐하면 뭐가 사실인지
‎동의할 수 없다면

1324
01:15:55,092 --> 01:15:57,803
‎그 어떤 문제도
‎해결할 수 없게 되니까요

1325
01:16:05,435 --> 01:16:07,729
‎벤에게 평평한 지구 축구 클럽을
‎추천하자

1326
01:16:07,813 --> 01:16:10,107
‎스포츠 소식은 띄우지 마
‎이제 안 보잖아

1327
01:16:39,970 --> 01:16:42,764
‎실리콘 밸리의 많은 사람들은
‎우리가 사용자들을

1328
01:16:42,848 --> 01:16:45,225
‎교환이 가능하며
‎그중 누구도 중요하지 않은

1329
01:16:45,309 --> 01:16:48,020
‎작은 뉴런들로 삼는
‎슈퍼 브레인을 만들고 있다는

1330
01:16:48,103 --> 01:16:49,563
‎이론에 동의합니다

1331
01:16:50,230 --> 01:16:53,150
‎그리고 사람들에게
‎이상한 역할을 부여합니다

1332
01:16:53,233 --> 01:16:56,069
‎당신은 컴퓨터의
‎작은 부품일 뿐이며

1333
01:16:56,153 --> 01:16:58,905
‎우리는 이 거대한 뇌의
‎기능에 의해

1334
01:16:58,989 --> 01:17:02,367
‎행동이 조작되고 있으며
‎중요하지도 않은 거예요

1335
01:17:02,451 --> 01:17:04,911
‎돈도 못 받고, 인정도 못 받고

1336
01:17:04,995 --> 01:17:06,455
‎자결권도 없어요

1337
01:17:06,538 --> 01:17:07,873
‎그저 은밀하게 조종될 뿐이죠

1338
01:17:07,956 --> 01:17:10,417
‎프로그래밍을 해야 하는
‎컴퓨팅 노드일 뿐이니까요

1339
01:17:10,500 --> 01:17:12,336
‎원래 컴퓨팅 노드는
‎그렇게 다루거든요

1340
01:17:20,093 --> 01:17:21,094
‎이런

1341
01:17:21,928 --> 01:17:25,390
‎기술을 실질적인 위협으로 보는 건

1342
01:17:25,474 --> 01:17:28,060
‎조금 지나친 비약인데...

1343
01:17:29,603 --> 01:17:33,982
‎이렇게 생각하긴 쉽죠
‎'내 손안의 스마트폰을'

1344
01:17:35,609 --> 01:17:37,235
‎'스크롤하고 클릭을 하는 것이'

1345
01:17:37,319 --> 01:17:39,196
‎'뭐가 위험하다는 거지?'

1346
01:17:40,280 --> 01:17:41,615
‎'화면 반대편에'

1347
01:17:41,698 --> 01:17:43,950
‎'슈퍼컴퓨터가 있긴 한데'

1348
01:17:44,409 --> 01:17:47,537
‎'내가 영상을 더 보게 하는 게
‎뭐가 위험하다는 거지?'

1349
01:17:54,252 --> 01:17:59,341
‎기술 그 자체가
‎실제로 위험하다는 게 아니라

1350
01:18:02,636 --> 01:18:04,346
‎"설득 기술에 대한
‎미국 상원 청문회"

1351
01:18:04,429 --> 01:18:08,850
‎사회의 어두운 면을 끌어내는
‎기술의 능력과

1352
01:18:09,559 --> 01:18:13,522
‎사회의 어두운 면이
‎실질적인 위협인 거예요

1353
01:18:13,605 --> 01:18:15,899
‎"미국 상원"

1354
01:18:18,819 --> 01:18:23,115
‎기술이 대량 혼돈을 야기하고

1355
01:18:23,198 --> 01:18:24,533
‎분노, 무례

1356
01:18:24,616 --> 01:18:26,326
‎서로 간의 불신과

1357
01:18:27,452 --> 01:18:30,622
‎외로움, 소외, 분극화

1358
01:18:30,706 --> 01:18:33,333
‎선거 해킹, 포퓰리즘 등으로

1359
01:18:33,917 --> 01:18:36,962
‎진짜 문제에 집중할 수 없게
‎더 한눈을 팔게 만든다면

1360
01:18:37,963 --> 01:18:39,214
‎그건 그냥 사회인 거예요

1361
01:18:40,340 --> 01:18:46,388
‎그런데 이젠 사회에
‎스스로 회복할 능력이 없고

1362
01:18:46,471 --> 01:18:48,515
‎혼란 속으로 빠져들고 있죠

1363
01:18:51,977 --> 01:18:54,938
‎이런 상품을 쓰지 않는 사람도
‎영향을 받습니다

1364
01:18:55,522 --> 01:18:57,524
‎이것들은
‎디지털 프랑켄슈타인이 되었고

1365
01:18:57,607 --> 01:19:00,068
‎자신들의 이미지로
‎세상을 바꾸고 있습니다

1366
01:19:00,152 --> 01:19:01,862
‎아이들의 정신 건강이나

1367
01:19:01,945 --> 01:19:04,489
‎우리의 정치나 정치적 담론도

1368
01:19:04,573 --> 01:19:07,492
‎대중과의 논의 없이 멋대로 말이죠

1369
01:19:07,576 --> 01:19:10,579
‎- 그래서 결국에는...
‎- 누구 책임이라고 봅니까?

1370
01:19:10,662 --> 01:19:13,582
‎저는 플랫폼이 책임을
‎져야 한다고 생각합니다

1371
01:19:13,665 --> 01:19:15,584
‎그들이 선거 광고를 장악할 때

1372
01:19:15,667 --> 01:19:17,794
‎선거를 보호할 책임을 져야 합니다

1373
01:19:17,878 --> 01:19:20,380
‎그들이 토요일 오전에
‎아이들의 정신 건강을 장악할 때도

1374
01:19:20,464 --> 01:19:22,424
‎토요일 오전을 지킬 책임이
‎그들에게 있고요

1375
01:19:23,717 --> 01:19:27,929
‎사람들의 관심을 끌기 위한 경쟁은
‎끝나지 않을 것입니다

1376
01:19:28,388 --> 01:19:31,850
‎기술은 우리의 삶에
‎더 깊게 침투할 거예요

1377
01:19:31,933 --> 01:19:34,895
‎인공 지능은 퇴보하기는커녕
‎더 발전해서

1378
01:19:34,978 --> 01:19:37,105
‎우리의 시선을 잡아 둘 것입니다

1379
01:19:38,940 --> 01:19:42,027
‎저는 62세이고

1380
01:19:42,110 --> 01:19:45,155
‎이 대화를 하는 도중에도
‎더 늙고 있습니다

1381
01:19:45,238 --> 01:19:47,365
‎하지만 이건 분명합니다

1382
01:19:48,700 --> 01:19:52,370
‎전 아마 죽은 걸
‎다행으로 여기게 될 겁니다

1383
01:19:52,454 --> 01:19:54,331
‎이런 문제가 터지면 말이죠

1384
01:19:54,790 --> 01:19:59,586
‎왜냐하면 저는 정말 무섭거든요

1385
01:20:01,171 --> 01:20:03,048
‎당신도 그렇나요?

1386
01:20:03,548 --> 01:20:06,885
‎아니면 제가 잘 모르는 것에
‎과민하게 반응하는 건가요?

1387
01:20:09,930 --> 01:20:11,598
‎뭐가 가장 걱정되죠?

1388
01:20:15,519 --> 01:20:18,480
‎짧게 놓고 보면은...

1389
01:20:19,523 --> 01:20:20,524
‎내전요

1390
01:20:24,444 --> 01:20:29,908
‎지금 상태로 어디 보자...
‎20년쯤 더 지나게 되면

1391
01:20:31,117 --> 01:20:34,579
‎우리의 방관으로
‎문명을 망가뜨릴 겁니다

1392
01:20:34,663 --> 01:20:37,958
‎지구 온난화 문제도
‎해결하지 못할 것이고요

1393
01:20:38,041 --> 01:20:42,087
‎세계의 민주화도 퇴보할 것이며

1394
01:20:42,170 --> 01:20:46,132
‎이상한 독재에 빠지게 될 것입니다

1395
01:20:46,216 --> 01:20:48,426
‎세계 경제도 망치겠죠

1396
01:20:49,177 --> 01:20:52,264
‎우린 아마 못 살아남을 거예요

1397
01:20:52,347 --> 01:20:54,808
‎저는 정말 그럴 것 같아요

1398
01:21:02,524 --> 01:21:04,985
‎우리의 상상이
‎실현되기 전이 어땠는지를

1399
01:21:05,068 --> 01:21:08,488
‎이들이 마지막으로
‎기억하는 세대가 될까요?

1400
01:21:11,074 --> 01:21:14,077
‎매트릭스를 자각하지 못하는데
‎어떻게 매트릭스에서 깨어나죠?

1401
01:21:17,747 --> 01:21:21,209
‎"유토피아가 될지
‎모두 사라지게 될지는"

1402
01:21:21,293 --> 01:21:25,255
‎"최후의 순간까지
‎알 수 없을 것이다"

1403
01:21:25,338 --> 01:21:27,299
‎"버크민스터 풀러"

1404
01:21:27,382 --> 01:21:30,635
‎우리가 말하는 것의 대부분이

1405
01:21:31,511 --> 01:21:33,680
‎편향적으로 암울하게 들리죠

1406
01:21:33,763 --> 01:21:36,808
‎'기술이 우리 세상을 망치고'

1407
01:21:36,892 --> 01:21:38,059
‎'애들도 망치고 있어'

1408
01:21:38,143 --> 01:21:39,269
‎그런데 아니에요

1409
01:21:40,228 --> 01:21:45,567
‎유토피아이면서 디스토피아라서
‎헷갈리는 거예요

1410
01:21:45,942 --> 01:21:50,447
‎스마트폰의 버튼만 누르면
‎차가 30초 만에 오고

1411
01:21:50,530 --> 01:21:52,699
‎제가 원하는 곳으로 갈 수 있죠

1412
01:21:52,782 --> 01:21:55,660
‎이건 마법처럼 대단한 거예요

1413
01:21:56,161 --> 01:21:57,662
‎우리가 '좋아요' 버튼을 만들 땐

1414
01:21:57,746 --> 01:22:01,249
‎세상에 긍정성과 사랑을
‎퍼트리는 게 목표였습니다

1415
01:22:01,499 --> 01:22:05,003
‎오늘날의 10대가
‎좋아요를 덜 받아서

1416
01:22:05,086 --> 01:22:06,379
‎우울해 하거나

1417
01:22:06,463 --> 01:22:08,632
‎정치적 분극화를 야기하는 건

1418
01:22:08,715 --> 01:22:09,883
‎우리 의도가 아니었어요

1419
01:22:09,966 --> 01:22:12,135
‎그들이 처음부터 사악하진
‎않았다고 생각해요

1420
01:22:13,511 --> 01:22:15,555
‎사업 모델에 문제가 있는 거죠

1421
01:22:15,847 --> 01:22:20,226
‎서비스를 멈추게 하고
‎다 파괴할 수도 있겠죠

1422
01:22:20,310 --> 01:22:24,522
‎200억 달러의 주식을 날리고
‎소송도 당하고요

1423
01:22:24,606 --> 01:22:27,108
‎하지만 흘린 물은
‎다시 담을 수 없습니다

1424
01:22:27,484 --> 01:22:30,403
‎조금은 손볼 수 있겠지만 결국에는

1425
01:22:30,487 --> 01:22:34,032
‎분기마다 매출과 사용량을
‎늘려야만 합니다

1426
01:22:34,658 --> 01:22:37,535
‎더 커질수록
‎변화하기 어렵게 되고요

1427
01:22:38,495 --> 01:22:43,458
‎저는 사람들이 사업 모델과
‎경제적 인센티브와

1428
01:22:43,541 --> 01:22:46,169
‎주주의 압박에 갇혀서

1429
01:22:46,252 --> 01:22:48,922
‎다른 걸 할 수 없게 됐다고 봐요

1430
01:22:49,005 --> 01:22:50,924
‎회사가 이윤을 남기는 것에
‎집중하는 것을

1431
01:22:51,007 --> 01:22:53,176
‎받아들여야 한다고 생각합니다

1432
01:22:53,259 --> 01:22:56,888
‎하지만 규정, 규칙, 경쟁이
‎없는 건 안 되죠

1433
01:22:56,972 --> 01:23:00,433
‎회사들이 일종의
‎정부 노릇을 하는 것도요

1434
01:23:00,934 --> 01:23:03,353
‎그들은 자신들을
‎통제할 수 있다고 말하는데

1435
01:23:03,436 --> 01:23:05,480
‎그건 정말 말도 안 되는
‎거짓말이에요

1436
01:23:06,064 --> 01:23:09,150
‎재정적 인센티브가
‎세상을 움직이고 있어요

1437
01:23:09,234 --> 01:23:15,573
‎그러니 문제를 해결하려면
‎재정적 인센티브를 재구성해야죠

1438
01:23:16,074 --> 01:23:18,785
‎이 회사들이 변해야 할
‎재정적인 이유는 없어요

1439
01:23:19,160 --> 01:23:21,329
‎그래서 규제가
‎필요하다고 생각합니다

1440
01:23:21,413 --> 01:23:24,290
‎전화 회사는 여러분에 대한
‎민감한 정보를 많이 갖고 있지만

1441
01:23:24,374 --> 01:23:27,544
‎그걸 악용하지 못하게 하는
‎법이 많이 있죠

1442
01:23:27,627 --> 01:23:31,506
‎그런데 디지털 프라이버시와
‎관련된 법은 거의 없어요

1443
01:23:31,589 --> 01:23:34,426
‎데이터 수집과 처리에
‎세금을 먹일 수도 있어요

1444
01:23:34,509 --> 01:23:37,554
‎예를 들어 수도세가
‎사용한 물의 양에 따라

1445
01:23:37,637 --> 01:23:39,723
‎책정되는 것과 같은 원리로요

1446
01:23:39,806 --> 01:23:43,226
‎기업이 가진 데이터의 양에 따라
‎세금을 부과하는 거죠

1447
01:23:43,309 --> 01:23:44,769
‎그러면 지구 상의 모든 데이터를

1448
01:23:44,853 --> 01:23:47,856
‎수집하지 말아야 할
‎재정적인 이유가 생기는 거예요

1449
01:23:47,939 --> 01:23:50,567
‎법은 이런 것들에
‎너무 뒤처져 있습니다

1450
01:23:50,650 --> 01:23:55,864
‎하지만 현재 상황은
‎사용자를 보호하지 않고

1451
01:23:55,947 --> 01:23:58,700
‎엄청난 부를 갖춘 회사들의

1452
01:23:58,783 --> 01:24:01,453
‎권리와 특권을 보호하고 있습니다

1453
01:24:02,245 --> 01:24:05,832
‎우리는 언제까지 부자와
‎권력자에게 복종할 건가요?

1454
01:24:05,915 --> 01:24:07,417
‎아니면 이런 말을 할까요?

1455
01:24:07,959 --> 01:24:12,047
‎국익이나 사람들, 사용자의 이익이

1456
01:24:12,130 --> 01:24:17,260
‎이미 억만장자인 이들의 이익보다

1457
01:24:18,011 --> 01:24:21,473
‎더 중요할 때도 있다고 말이죠

1458
01:24:21,890 --> 01:24:26,603
‎이 시장은 민주주의와
‎자유를 위태롭게 하고

1459
01:24:26,686 --> 01:24:28,521
‎불법으로 제정되어야 합니다

1460
01:24:29,147 --> 01:24:31,816
‎이건 급진적인 제안이 아니에요

1461
01:24:31,900 --> 01:24:34,194
‎우리가 불법화한
‎다른 시장도 있어요

1462
01:24:34,277 --> 01:24:36,988
‎인간 장기 시장을 불법화했고

1463
01:24:37,072 --> 01:24:39,491
‎인간 노예 시장도 불법화했어요

1464
01:24:39,949 --> 01:24:44,037
‎피할 수 없는
‎파괴적인 결과가 있기 때문이죠

1465
01:24:44,537 --> 01:24:45,830
‎우리가 사는 세상은

1466
01:24:45,914 --> 01:24:50,001
‎죽은 나무가 살아 있는 나무보다
‎더 가치 있는 세상입니다

1467
01:24:50,085 --> 01:24:53,838
‎죽은 고래도 살아 있는 고래보다
‎더 가치 있고요

1468
01:24:53,922 --> 01:24:56,341
‎우리 경제는 그런 식으로
‎오랫동안 움직였고

1469
01:24:56,424 --> 01:24:58,134
‎기업은 규제를 받지 않았기에

1470
01:24:58,218 --> 01:25:00,678
‎계속 숲을 파괴하고

1471
01:25:00,762 --> 01:25:01,763
‎고래를 죽이고

1472
01:25:01,846 --> 01:25:06,101
‎땅을 파서 석유를 시추할 겁니다

1473
01:25:06,184 --> 01:25:08,394
‎그게 지구를
‎파괴한다는 걸 알면서도

1474
01:25:08,478 --> 01:25:12,148
‎후손들이 살 지구를
‎망친다는 걸 알면서도요

1475
01:25:12,232 --> 01:25:13,858
‎이건 무슨 수를 써서라도

1476
01:25:13,942 --> 01:25:16,694
‎이윤만 남기려는
‎근시안적 사고가 원인입니다

1477
01:25:16,778 --> 01:25:20,156
‎이윤만을 좇는 기업이
‎마법처럼 최선의 결과를

1478
01:25:20,240 --> 01:25:21,950
‎만들어낼 것이라 믿는 것 같죠

1479
01:25:22,033 --> 01:25:24,494
‎이건 환경에도
‎오랫동안 영향을 끼쳤어요

1480
01:25:24,577 --> 01:25:27,288
‎정말 무섭지만 이제 우리가
‎문명으로 깨어나서

1481
01:25:27,372 --> 01:25:29,207
‎애초부터 이런 사고방식이

1482
01:25:29,290 --> 01:25:31,709
‎잘못됐음을 깨달을 마지막 수단은

1483
01:25:31,793 --> 01:25:35,004
‎이제는 우리가 나무고
‎고래라는 걸 깨닫는 겁니다

1484
01:25:35,088 --> 01:25:37,048
‎우리의 관심은 채굴될 수 있어요

1485
01:25:37,132 --> 01:25:39,134
‎우리가 값진 인생을 사는 것보다

1486
01:25:39,217 --> 01:25:41,594
‎더 많은 시간을
‎화면을 보는 데 쓰고

1487
01:25:41,678 --> 01:25:42,971
‎광고를 본다면

1488
01:25:43,054 --> 01:25:45,890
‎기업에게 더 이익이 되는 거예요

1489
01:25:45,974 --> 01:25:47,559
‎그리고 그 결과를 지금 보고 있죠

1490
01:25:47,642 --> 01:25:50,687
‎기업들이
‎강력한 인공 지능을 이용해서

1491
01:25:50,770 --> 01:25:53,648
‎우리의 관심을
‎끄는 법을 알아내고

1492
01:25:53,731 --> 01:25:55,358
‎그들의 입맛에 맞는 걸
‎보게 만듭니다

1493
01:25:55,441 --> 01:25:57,277
‎우리의 목표와 가치와 삶에

1494
01:25:57,360 --> 01:25:59,237
‎가장 부합하는 게 아니라 말이죠

1495
01:26:02,991 --> 01:26:04,450
‎"스티브 잡스
‎오늘의 키노트"

1496
01:26:05,535 --> 01:26:06,911
‎컴퓨터는 제게...

1497
01:26:06,995 --> 01:26:10,290
‎우리가 만들어 낸
‎가장 놀라운 도구입니다

1498
01:26:11,124 --> 01:26:13,877
‎우리 심리의 자전거라고도
‎할 수 있는 것이죠

1499
01:26:15,628 --> 01:26:20,091
‎인간적 기술의 개념은
‎실리콘 밸리의 시발점과 같습니다

1500
01:26:21,050 --> 01:26:25,722
‎그런데 우린 길을 잃었어요
‎멋진 일로 변해 버렸으니까요

1501
01:26:25,805 --> 01:26:27,265
‎옳은 일이 아니라요

1502
01:26:27,348 --> 01:26:29,726
‎인터넷은 엉뚱한 곳이었어요

1503
01:26:29,809 --> 01:26:31,394
‎그리고 실험적이었고

1504
01:26:31,477 --> 01:26:34,731
‎창조적인 것들이 일어났어요
‎물론 지금도 그렇지만

1505
01:26:34,814 --> 01:26:38,610
‎거대한 쇼핑몰 같은 느낌이에요
‎요즘에는요

1506
01:26:38,693 --> 01:26:44,157
‎그런데 그것보다
‎더 큰 무언가가 있을 거란 말이죠

1507
01:26:46,743 --> 01:26:48,411
‎아마 전 낙관론자인가 봐요

1508
01:26:48,494 --> 01:26:52,040
‎소셜 미디어의 모습과 용도를
‎바꿀 수 있다고 믿거든요

1509
01:26:54,083 --> 01:26:56,586
‎기술이 작동하는 법은
‎물리 법칙이 아니에요

1510
01:26:56,669 --> 01:26:57,921
‎딱 정해진 게 없어요

1511
01:26:58,004 --> 01:27:02,175
‎저 같은 인간의 선택입니다

1512
01:27:02,759 --> 01:27:05,345
‎그리고 인간은 그 기술을
‎바꿀 수 있어요

1513
01:27:06,971 --> 01:27:09,974
‎문제는 우리가 인정을
‎하든 안 하든

1514
01:27:10,475 --> 01:27:15,438
‎우리 일의 나쁜 결과가
‎직접적으로 나타난다는 겁니다

1515
01:27:21,027 --> 01:27:24,864
‎우리가 만들었으니
‎우리가 바꿀 책임이 있습니다

1516
01:27:37,210 --> 01:27:42,298
‎관심만 끄는 모델은 우리가 원하는
‎인간을 대하는 방식이 아닙니다

1517
01:27:46,094 --> 01:27:48,137
‎이거 나만 이러는 거...

1518
01:27:49,847 --> 01:27:50,848
‎딱한 자식

1519
01:27:51,516 --> 01:27:53,226
‎이런 썩은 사업 모델을
‎없애는 것에

1520
01:27:53,309 --> 01:27:56,145
‎건강한 사회의 구조가
‎달려 있습니다

1521
01:28:04,696 --> 01:28:07,782
‎우린 인간적으로 상품들을
‎디자인하라고 요구할 수 있습니다

1522
01:28:09,409 --> 01:28:13,121
‎우리를 채취 가능한 자원으로
‎취급하지 말 것도 말이죠

1523
01:28:15,164 --> 01:28:18,334
‎'세상을 어떻게 더 좋게 만들까'가
‎목적이 되어야 합니다

1524
01:28:20,461 --> 01:28:23,798
‎역사적으로 봤을 때도
‎무언가가 발전한 이유는

1525
01:28:23,881 --> 01:28:26,342
‎누군가가
‎이렇게 말했기 때문입니다

1526
01:28:26,426 --> 01:28:28,428
‎'이건 말도 안 돼
‎우린 더 잘할 수 있어'

1527
01:28:29,178 --> 01:28:32,557
‎비평가들이 발전을 이끄는 것이고

1528
01:28:33,141 --> 01:28:35,393
‎비평가들이
‎진정한 낙관주의자예요

1529
01:28:38,313 --> 01:28:39,147
‎안녕

1530
01:28:46,195 --> 01:28:47,697
‎좀 무모한 것 같죠?

1531
01:28:47,780 --> 01:28:51,534
‎마치 이것들을
‎디자인하는 근본적인 방법이

1532
01:28:52,994 --> 01:28:54,704
‎좋은 방향으로
‎가지 않는 것 같아요

1533
01:28:55,246 --> 01:28:56,873
‎전부가 말이죠

1534
01:28:56,956 --> 01:29:00,626
‎그러니 모든 걸 바꿔야 한다는 게
‎무모하게만 들립니다

1535
01:29:01,169 --> 01:29:02,670
‎하지만 그렇게 해야 해요

1536
01:29:04,339 --> 01:29:05,923
‎우리가 할 수 있을까요?

1537
01:29:07,383 --> 01:29:08,301
‎그래야만 합니다

1538
01:29:21,314 --> 01:29:24,942
‎아주 낙관적이신 것 같군요

1539
01:29:26,194 --> 01:29:27,195
‎그렇게 들렸나요?

1540
01:29:27,653 --> 01:29:30,114
‎계속 그러시는 게 믿기지가 않네요

1541
01:29:30,198 --> 01:29:33,409
‎전 이런 말을 했는데도요
‎'우린 디스토피아를 맞을 겁니다'

1542
01:29:33,493 --> 01:29:35,328
‎'아주 이른 시일 내로 말이죠'

1543
01:29:35,411 --> 01:29:37,830
‎'그렇게 안 되려면
‎기적이 필요할 거예요'

1544
01:29:37,914 --> 01:29:40,291
‎물론 그 기적은 집단적 의지입니다

1545
01:29:41,000 --> 01:29:44,587
‎저는 우리가 해결할 거라고
‎낙관하고 있지만

1546
01:29:44,670 --> 01:29:47,048
‎시간이 오래 걸릴 거예요

1547
01:29:47,131 --> 01:29:50,385
‎이게 문제라는 걸
‎모두가 알지 못하니까 말이죠

1548
01:29:50,468 --> 01:29:55,890
‎오늘날의 기술에서
‎가장 큰 실패 중 하나는

1549
01:29:55,973 --> 01:29:58,643
‎리더십의 실패라고 생각합니다

1550
01:29:58,726 --> 01:30:01,979
‎사람들이 나와서
‎잘된 것만 말하지 않고

1551
01:30:02,063 --> 01:30:05,900
‎완벽하지 않은 것에 대해서도
‎자유롭게 얘기해야 해요

1552
01:30:05,983 --> 01:30:08,194
‎누군가 새로운 것을
‎만들 수 있게 말이죠

1553
01:30:08,277 --> 01:30:10,321
‎근본적으로 말이죠

1554
01:30:10,405 --> 01:30:14,617
‎대중의 압력이 커질 때까지
‎기계는 변하지 않을 겁니다

1555
01:30:14,700 --> 01:30:18,329
‎이런 대화를 하고
‎목소리를 높임으로써

1556
01:30:18,413 --> 01:30:21,082
‎어떤 경우에는 이런 기술을 통해서

1557
01:30:21,165 --> 01:30:24,252
‎흐름을 바꾸고
‎대화를 바꿀 수가 있어요

1558
01:30:24,335 --> 01:30:27,004
‎이상하게 들릴지 몰라도
‎이건 제 세계예요

1559
01:30:27,088 --> 01:30:29,632
‎전 그들을 싫어하지도 않고
‎구글, 페북에 폐 끼치기도 싫어요

1560
01:30:29,715 --> 01:30:32,468
‎그저 개혁하길 바라는 거죠
‎세상이 파괴되면 안 되니까요

1561
01:30:32,969 --> 01:30:35,513
‎저는 제 시간을
‎낭비하는 것 같은 앱을

1562
01:30:35,596 --> 01:30:37,723
‎제 스마트폰에서
‎엄청나게 많이 제거했습니다

1563
01:30:37,807 --> 01:30:40,685
‎모든 소셜 미디어 앱과
‎뉴스 앱들요

1564
01:30:40,768 --> 01:30:42,520
‎그리고 저에게

1565
01:30:42,603 --> 01:30:45,815
‎꼭 필요하지도 않은 정보로
‎제 다리를 진동시키는

1566
01:30:45,898 --> 01:30:48,943
‎알림 설정도 껐습니다

1567
01:30:49,026 --> 01:30:51,279
‎쿠키를 제 주머니에
‎넣지 않는 것과 같은 이유로요

1568
01:30:51,362 --> 01:30:53,197
‎알림의 수를 줄이세요

1569
01:30:53,281 --> 01:30:54,449
‎알림 설정을 끄세요

1570
01:30:54,532 --> 01:30:55,950
‎알림 설정 다 끄세요

1571
01:30:56,033 --> 01:30:58,536
‎더는 구글을 쓰지 않고
‎콴트를 씁니다

1572
01:30:58,619 --> 01:31:01,497
‎사용자의 검색 기록을
‎저장하지 않거든요

1573
01:31:01,581 --> 01:31:04,459
‎유튜브의 영상 추천을
‎절대 받지 마세요

1574
01:31:04,542 --> 01:31:07,003
‎항상 선택해서 보세요
‎싸울 방법은 있습니다

1575
01:31:07,086 --> 01:31:12,133
‎추천 목록을 제거하는
‎크롬 확장 프로그램이 많아요

1576
01:31:12,216 --> 01:31:15,636
‎자신이 만든 걸 되돌리는 걸
‎추천하는 게 마음에 드네요

1577
01:31:15,720 --> 01:31:16,554
‎네

1578
01:31:16,929 --> 01:31:21,642
‎뭘 공유하기 전에 팩트를 확인하고
‎소스를 검토하고 검색을 더 하세요

1579
01:31:21,726 --> 01:31:25,104
‎너무 감정에 호소하게
‎만들어졌다는 생각이 들면

1580
01:31:25,188 --> 01:31:26,314
‎그 생각이 맞을 거예요

1581
01:31:26,397 --> 01:31:29,025
‎기본적으로 클릭이 투표인 거예요

1582
01:31:29,108 --> 01:31:30,359
‎낚시성 게시물을 클릭하면

1583
01:31:30,443 --> 01:31:33,779
‎기존의 시스템을 유지할 수 있게
‎재정적인 도움을 주는 거예요

1584
01:31:33,863 --> 01:31:36,949
‎다양한 종류의 정보를
‎얻도록 하세요

1585
01:31:37,033 --> 01:31:37,909
‎여러분의 삶에서요

1586
01:31:37,992 --> 01:31:40,995
‎전 저랑 의견이 다른 사람들도
‎트위터에서 팔로우를 합니다

1587
01:31:41,078 --> 01:31:44,207
‎다른 관점에
‎저를 노출시키고 싶거든요

1588
01:31:44,665 --> 01:31:46,584
‎대부분의 IT 업계 사람들은

1589
01:31:46,667 --> 01:31:49,045
‎자식들에게 이런 전자 기기를
‎주지 않습니다

1590
01:31:49,128 --> 01:31:51,047
‎우리 애들은 소셜 미디어를
‎전혀 쓰지 않습니다

1591
01:31:51,964 --> 01:31:53,549
‎규칙인 건가요? 아니면...

1592
01:31:53,633 --> 01:31:54,509
‎규칙이에요

1593
01:31:55,092 --> 01:31:57,845
‎우린 아주 열성적이에요

1594
01:31:57,929 --> 01:31:59,222
‎거의 미쳤죠

1595
01:31:59,305 --> 01:32:05,603
‎그런데 아이들은
‎이런 걸 거의 못 쓰게 합니다

1596
01:32:05,686 --> 01:32:08,564
‎저는 가족의 삶을 더 편하게 하고

1597
01:32:08,648 --> 01:32:12,610
‎확실한 근거도 있는
‎세 가지 규칙을 만들었습니다

1598
01:32:12,693 --> 01:32:15,571
‎첫 번째 규칙은 모든 전자 기기를
‎침실에서 제거하는 거예요

1599
01:32:15,655 --> 01:32:17,281
‎매일 밤마다 정해진 시각이 되면요

1600
01:32:17,365 --> 01:32:20,535
‎그 시각이 언제건 잠들기 30분 전
‎모든 전자 기기를 제거하는 겁니다

1601
01:32:20,618 --> 01:32:21,661
‎두 번째 규칙은

1602
01:32:21,744 --> 01:32:24,038
‎고등학생이 될 때까지
‎소셜 미디어를 금지하는 거예요

1603
01:32:24,121 --> 01:32:26,374
‎저는 솔직히 16살은
‎되어야 한다고 생각해요

1604
01:32:26,457 --> 01:32:28,960
‎중학교는 안 그래도 힘드니까
‎고등학교 때까진 금지하세요

1605
01:32:29,043 --> 01:32:32,964
‎세 번째 규칙은
‎자녀와 시간 예산을 짜는 거예요

1606
01:32:33,047 --> 01:32:34,757
‎이렇게 얘기해 보세요

1607
01:32:34,840 --> 01:32:37,927
‎'하루에 몇 시간이나
‎소셜 미디어에 쓰고 싶니?'

1608
01:32:38,010 --> 01:32:39,637
‎'얼마나 쓰는 게 좋겠니?"

1609
01:32:39,720 --> 01:32:41,597
‎애들은 꽤 합리적인 대답을
‎할 거예요

1610
01:32:42,056 --> 01:32:44,642
‎저도 잘 알아요

1611
01:32:44,725 --> 01:32:48,563
‎제가 모든 사람들이 소셜 미디어를
‎지우게 할 순 없다는 거요

1612
01:32:48,646 --> 01:32:50,439
‎하지만 몇 명은 그럴 거예요

1613
01:32:50,523 --> 01:32:54,402
‎그런데 소수가 계정을
‎삭제하는 것도 의미가 큽니다

1614
01:32:54,485 --> 01:32:58,406
‎대화를 할 수 있는
‎공간이 생기는 것이니까요

1615
01:32:58,489 --> 01:33:00,908
‎저는 조작 엔진에

1616
01:33:00,992 --> 01:33:05,204
‎얽매이지 않고
‎사회적인 대화를 하는 사람들이

1617
01:33:05,288 --> 01:33:07,540
‎세상에 더 많았으면 좋겠거든요

1618
01:33:07,623 --> 01:33:10,126
‎그러니까 지워요
‎시스템에서 탈출하라고요

1619
01:33:10,209 --> 01:33:12,503
‎네, 삭제해요
‎멍청한 것에서 벗어나요

1620
01:33:13,546 --> 01:33:16,507
‎세상은 아름다우니까요
‎오늘 날씨도 좋네요

1621
01:33:18,426 --> 01:33:19,969
‎"우리를 팔로우하세요!"

1622
01:33:20,052 --> 01:33:21,887
‎"농담입니다"

1623
01:33:21,971 --> 01:33:27,476
‎"TheSocialDilemma.com에서
‎논의해 보자고요"

1624
01:33:32,064 --> 01:33:34,609
‎자막: 박해준



