1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:19,978 --> 00:00:24,774
"TAK ADA HAL BESAR YANG MEMASUKI
KEHIDUPAN MANUSIA TANPA KUTUKAN."

4
00:00:24,858 --> 00:00:27,861
SOPHOKLES

5
00:00:31,156 --> 00:00:34,659
Ya, mulailah. Silakan duduk
dan buat dirimu nyaman.

6
00:00:37,579 --> 00:00:39,497
- Kau baik-baik saja?
- Ya.

7
00:00:43,043 --> 00:00:44,627
Pengambilan gambar pertama, tandai!

8
00:00:46,880 --> 00:00:48,923
Mau mulai dengan memperkenalkan dirimu?

9
00:00:50,467 --> 00:00:53,636
Halo, Dunia. Aku Bailey.
Pengambilan gambar ketiga.

10
00:00:54,179 --> 00:00:56,264
- Kau baik-baik saja?
- Ini bagian terburuk.

11
00:00:57,515 --> 00:00:58,516
Aku tak suka ini.

12
00:00:59,851 --> 00:01:02,228
Aku bekerja di Facebook
pada tahun 2011 dan 2012.

13
00:01:02,312 --> 00:01:05,190
Aku salah satu pegawai awal Instagram.

14
00:01:05,273 --> 00:01:08,693
<i>Aku bekerja di Google, YouTube.</i>

15
00:01:08,777 --> 00:01:11,696
<i>Apple, Google, Twitter, Palm.</i>

16
00:01:12,739 --> 00:01:15,533
Aku membantu merintis Mozilla Labs
dan beralih ke Firefox.

17
00:01:15,617 --> 00:01:17,994
Sudah siap? Semuanya...

18
00:01:18,078 --> 00:01:18,953
Bagus.

19
00:01:21,206 --> 00:01:22,582
Aku bekerja di Twitter.

20
00:01:22,999 --> 00:01:26,169
Pekerjaan terakhirku di sana
adalah Wakil Presiden Senior Perekayasaan.

21
00:01:27,462 --> 00:01:29,255
<i>Aku mantan Presiden Pinterest.</i>

22
00:01:29,339 --> 00:01:32,717
Sebelum itu, aku Direktur Monetisasi

23
00:01:32,801 --> 00:01:34,260
di Facebook selama lima tahun.

24
00:01:34,344 --> 00:01:37,972
Saat di Twitter, kuhabiskan beberapa tahun
mengelola platform pengembang mereka,

25
00:01:38,056 --> 00:01:40,225
lalu aku menjadi Kepala Produk Pelanggan.

26
00:01:40,308 --> 00:01:44,270
Aku penemu bersama Google Drive,
Gmail Chat,

27
00:01:44,354 --> 00:01:46,856
Halaman Facebook,
dan tombol "Suka" Facebook.

28
00:01:47,440 --> 00:01:50,777
Ya. Ini sebabnya kuhabiskan delapan bulan

29
00:01:50,860 --> 00:01:52,779
berbicara berulang kali dengan pengacara.

30
00:01:54,030 --> 00:01:55,406
Ini membuatku takut.

31
00:01:58,409 --> 00:02:02,914
Saat di sana, aku selalu merasa,
pada dasarnya, itu demi kebaikan.

32
00:02:03,373 --> 00:02:05,375
Entah apa aku merasa seperti itu lagi.

33
00:02:05,458 --> 00:02:10,588
Aku meninggalkan Google pada Juni 2017
karena masalah etika.

34
00:02:10,672 --> 00:02:14,134
Bukan hanya di Google,
tapi industri ini secara umum.

35
00:02:14,217 --> 00:02:15,426
Aku sangat khawatir.

36
00:02:16,719 --> 00:02:17,679
Sangat khawatir.

37
00:02:19,097 --> 00:02:21,808
Saat ini mudah untuk melupakan fakta

38
00:02:21,891 --> 00:02:27,814
bahwa alat ini telah menciptakan
hal-hal indah di dunia.

39
00:02:27,897 --> 00:02:30,233
Mereka mempertemukan
anggota keluarga yang hilang

40
00:02:30,316 --> 00:02:31,943
dan menemukan donor organ.

41
00:02:32,026 --> 00:02:35,613
Maksudku, ada perubahan sistemik berarti

42
00:02:35,697 --> 00:02:37,866
yang terjadi di seluruh dunia

43
00:02:37,949 --> 00:02:40,201
karena semua platform positif ini.

44
00:02:41,035 --> 00:02:42,954
Kurasa kita naif

45
00:02:43,329 --> 00:02:44,914
soal sisi lain dari koin itu.

46
00:02:45,540 --> 00:02:48,585
Ya, setelah semua ini dirilis,
mereka membentuk hidup sendiri.

47
00:02:48,668 --> 00:02:52,005
Cara mereka digunakan tak sesuai
dengan harapan kita.

48
00:02:52,088 --> 00:02:56,509
Aku sangat percaya tak ada yang berniat
menimbulkan semua konsekuensi ini.

49
00:02:56,801 --> 00:02:59,554
Tak ada orang jahat. Sama sekali tidak.

50
00:03:01,639 --> 00:03:03,600
Lantas apa masalahnya?

51
00:03:09,230 --> 00:03:11,357
Apa ada masalah dan apa itu?

52
00:03:18,406 --> 00:03:20,158
Sulit memberi satu jawaban ringkas...

53
00:03:20,241 --> 00:03:22,118
Aku mencoba membahas beragam masalah.

54
00:03:22,577 --> 00:03:23,578
Apa masalahnya?

55
00:03:28,208 --> 00:03:32,253
DOKUMENTER NETFLIX ORIGINAL

56
00:03:33,588 --> 00:03:35,340
<i>Meski menghadapi lonjakan kritik,</i>

57
00:03:35,423 --> 00:03:37,675
<i>perusahaan teknologi besar</i>
<i>makin berkembang.</i>

58
00:03:37,759 --> 00:03:40,929
Seluruh industri teknologi berada
di bawah pengawasan tingkat baru.

59
00:03:41,012 --> 00:03:43,723
Studi baru mengungkap kaitan

60
00:03:43,806 --> 00:03:46,142
antara kesehatan mental
dan penggunaan media sosial.

61
00:03:46,226 --> 00:03:48,478
<i>Hadir untuk membahas riset terbaru...</i>

62
00:03:49,187 --> 00:03:51,397
<i>...yang terjadi tanpa diliput sama sekali.</i>

63
00:03:51,481 --> 00:03:54,025
<i>Puluhan juta warga Amerika</i>
<i>sangat kecanduan</i>

64
00:03:54,108 --> 00:03:56,319
<i>terhadap perangkat elektronik mereka.</i>

65
00:03:56,402 --> 00:03:59,364
<i>Itu diperparah oleh fakta</i>
<i>kini kita bisa mengasingkan diri...</i>

66
00:03:59,447 --> 00:04:00,698
KAWANMU MENANDAIMU DI FOTO

67
00:04:00,782 --> 00:04:02,742
...dalam gelembung, berkat teknologi kami.

68
00:04:02,825 --> 00:04:04,577
Berita palsu menjadi lebih maju

69
00:04:04,661 --> 00:04:06,788
dan mengancam masyarakat di seluruh dunia.

70
00:04:06,871 --> 00:04:10,333
Kami tak menduga ini saat membuat Twitter
lebih dari 12 tahun lalu.

71
00:04:10,416 --> 00:04:12,502
Pemerintah mengatakan mereka tak yakin

72
00:04:12,585 --> 00:04:14,754
serangan siber Rusia akan berhenti.

73
00:04:14,837 --> 00:04:18,132
YouTube dipaksa berfokus
membersihkan situsnya.

74
00:04:18,216 --> 00:04:21,552
<i>TikTok, jika Anda berbicara</i>
<i>dengan remaja di luar sana,</i>

75
00:04:21,636 --> 00:04:24,013
<i>mustahil mereka akan menghapusnya...</i>

76
00:04:24,097 --> 00:04:26,349
Hei, Isla, bisa tolong siapkan meja?

77
00:04:26,432 --> 00:04:27,517
<i>Ada pertanyaan serius</i>

78
00:04:27,600 --> 00:04:29,978
<i>soal apakah media sosial</i>
<i>membuat anak kita depresi.</i>

79
00:04:30,061 --> 00:04:32,105
Isla, bisa tolong siapkan mejanya?

80
00:04:32,188 --> 00:04:35,316
<i>Prosedur kosmetik ini menjadi</i>
<i>sangat populer di kalangan remaja</i>

81
00:04:35,400 --> 00:04:37,944
hingga ahli bedah plastik menamai
sindrom baru untuk itu,

82
00:04:38,027 --> 00:04:40,822
Dismorfia Snapchat,
dengan pasien muda yang ingin operasi

83
00:04:40,905 --> 00:04:43,741
agar mereka bisa mirip
dengan swafoto berfilter mereka.

84
00:04:43,825 --> 00:04:45,910
Aku masih bingung
kenapa kau memberinya itu.

85
00:04:45,994 --> 00:04:49,580
Aku harus bagaimana?
Setiap anak lain di kelasnya punya.

86
00:04:50,164 --> 00:04:51,165
Usianya baru 11 tahun.

87
00:04:51,249 --> 00:04:55,086
Cass, tak ada yang memaksamu memilikinya.
Kau bisa tak terhubung selama kau mau.

88
00:04:55,169 --> 00:04:59,340
Hei, aku terhubung tanpa ponsel.
Aku sedang mengakses internet.

89
00:04:59,424 --> 00:05:03,094
Lagi pula, itu bukan koneksi nyata.
Itu hanya omong kosong...

90
00:05:03,177 --> 00:05:04,971
Kapitalisme pengawasan telah membentuk

91
00:05:05,054 --> 00:05:07,765
politik dan budaya
dalam cara yang tak banyak orang pahami.

92
00:05:07,849 --> 00:05:10,101
<i>ISIS mengilhami para pengikutnya</i>
<i>lewat internet</i>

93
00:05:10,184 --> 00:05:12,812
<i>dan kini penganut supremasi kulit putih</i>
<i>melakukannya juga.</i>

94
00:05:12,895 --> 00:05:14,147
Baru-baru ini di India,

95
00:05:14,230 --> 00:05:17,442
<i>massa hakim jalanan di internet</i>
<i>telah membunuh lusinan orang...</i>

96
00:05:17,525 --> 00:05:20,361
<i>Ini bukan sekadar berita palsu,</i>
<i>tapi juga berkonsekuensi.</i>

97
00:05:20,445 --> 00:05:24,073
<i>Bagaimana cara menangani wabah</i>
<i>di era maraknya berita palsu?</i>

98
00:05:24,157 --> 00:05:26,993
Bisakah kita tertular virus korona
dengan memakan makanan Cina?

99
00:05:27,535 --> 00:05:32,540
Kita telah berubah dari era informasi
menjadi era disinformasi.

100
00:05:32,623 --> 00:05:34,667
Demokrasi kita sedang diserang.

101
00:05:34,751 --> 00:05:38,504
<i>Maksudku adalah, "Kurasa alat</i>
<i>yang telah diciptakan hari ini </i>

102
00:05:38,588 --> 00:05:41,799
mulai mengikis struktur sosial
dari cara kerja masyarakat."

103
00:06:00,151 --> 00:06:03,446
Asa memberi ucapan sambutan.
Kita putar videonya.

104
00:06:04,197 --> 00:06:07,325
Lalu, "Hadirin, sambutlah Tristan Harris."

105
00:06:07,408 --> 00:06:08,826
- Benar.
- Bagus.

106
00:06:08,951 --> 00:06:09,952
Jadi, aku naik...

107
00:06:11,204 --> 00:06:12,038
dan...

108
00:06:12,121 --> 00:06:13,748
MANUSIAWI
AGENDA BARU TEKNOLOGI

109
00:06:13,831 --> 00:06:16,042
Intinya katakan,
"Terima kasih sudah datang."

110
00:06:17,919 --> 00:06:22,048
Jadi, hari ini, aku ingin membahas
agenda baru untuk teknologi.

111
00:06:22,131 --> 00:06:25,468
Alasan kami ingin melakukannya
adalah karena jika kita tanyai orang,

112
00:06:25,551 --> 00:06:27,804
"Apa yang salah di industri teknologi
saat ini?"

113
00:06:28,346 --> 00:06:31,641
Ada banyak keluhan, skandal,

114
00:06:31,724 --> 00:06:33,893
pencurian data, kecanduan teknologi,

115
00:06:33,976 --> 00:06:35,978
berita palsu, polarisasi,

116
00:06:36,062 --> 00:06:37,688
dan beberapa pemilu yang diretas.

117
00:06:38,189 --> 00:06:41,609
Namun, adakah sesuatu
di balik semua masalah ini

118
00:06:41,692 --> 00:06:44,654
yang menyebabkan semua ini
terjadi sekaligus?

119
00:06:46,447 --> 00:06:48,658
- Itu sudah bagus?
- Bagus sekali. Ya.

120
00:06:50,827 --> 00:06:52,954
Aku hanya mencoba...
Aku mau orang melihat...

121
00:06:53,037 --> 00:06:55,206
ada masalah yang terjadi
di industri teknologi.

122
00:06:55,289 --> 00:07:00,211
Itu tak bernama
dan itu terkait dengan satu sumber...

123
00:07:05,091 --> 00:07:06,801
<i>Saat kita melihat sekeliling,</i>

124
00:07:07,218 --> 00:07:09,387
<i>rasanya dunia menjadi gila.</i>

125
00:07:12,765 --> 00:07:15,184
Kita harus menanyai diri, apa ini normal?

126
00:07:16,102 --> 00:07:18,896
Atau kita semua terpengaruh
semacam mantra?

127
00:07:22,316 --> 00:07:25,153
MANTAN PAKAR ETIKA DESAIN GOOGLE

128
00:07:25,236 --> 00:07:27,905
PENDIRI BERSAMA
CENTER FOR HUMANE TECHNOLOGY

129
00:07:27,989 --> 00:07:30,491
<i>Kuharap lebih banyak orang bisa memahami</i>
<i>cara kerjanya</i>

130
00:07:30,575 --> 00:07:34,036
<i>karena ini seharusnya bukan hal</i>
<i>yang hanya diketahui industri teknologi.</i>

131
00:07:34,120 --> 00:07:36,289
<i>Itu hal yang seharusnya semua orang tahu.</i>

132
00:07:47,383 --> 00:07:48,301
- Halo!
- Hai.

133
00:07:48,759 --> 00:07:50,595
- Tristan. Senang bertemu kau.
- Tristan?

134
00:07:50,678 --> 00:07:51,721
- Ya.
- Bagus.

135
00:07:53,181 --> 00:07:55,933
<i>Tristan Harris adalah</i>
<i>mantan pakar etika desain Google</i>

136
00:07:56,017 --> 00:07:59,353
dan dijuluki sebagai hal paling mirip
dengan nurani bagi Silicon Valley.

137
00:07:59,437 --> 00:08:01,189
<i>Dia meminta industri teknologi membawa</i>

138
00:08:01,272 --> 00:08:04,192
hal yang dia sebut "desain etis"
pada produknya.

139
00:08:04,275 --> 00:08:06,903
<i>Jarang ada orang dalam teknologi</i>
<i>yang sejujur itu,</i>

140
00:08:06,986 --> 00:08:10,281
<i>tapi Tristan Harris percaya</i>
<i>seseorang harus melakukannya.</i>

141
00:08:11,324 --> 00:08:12,700
<i>Dulu di Google,</i>

142
00:08:12,783 --> 00:08:16,037
aku ada di tim Gmail dan mulai kelelahan

143
00:08:16,120 --> 00:08:18,581
karena kami begitu sering membahas...

144
00:08:19,457 --> 00:08:23,169
harus seperti apa bentuk kotak masuk
dan warnanya.

145
00:08:23,252 --> 00:08:25,880
Aku merasa kecanduan surel

146
00:08:26,297 --> 00:08:27,715
dan kuanggap itu menarik

147
00:08:27,798 --> 00:08:31,511
bahwa tak ada orang di Gmail yang mencoba
membuatnya tak begitu adiktif.

148
00:08:31,969 --> 00:08:34,514
Kupikir,
"Apa ada lagi yang memikirkan ini?

149
00:08:34,597 --> 00:08:36,390
Belum kudengar ada yang membahas ini."

150
00:08:36,849 --> 00:08:41,229
Aku merasa frustrasi
dengan industri teknologi secara umum

151
00:08:41,312 --> 00:08:43,272
karena kita seolah-olah tersesat.

152
00:08:46,984 --> 00:08:49,820
Aku berjuang untuk mencari tahu

153
00:08:49,904 --> 00:08:52,573
cara kami bisa mengubahnya dari dalam.

154
00:08:55,201 --> 00:08:59,497
Saat itulah kuputuskan membuat presentasi,
semacam ajakan untuk bergerak.

155
00:09:00,998 --> 00:09:04,961
Setiap hari, aku pulang dan mengerjakannya
selama beberapa jam setiap malam.

156
00:09:06,170 --> 00:09:11,884
Pada dasarnya tertulis,
belum pernah ada 50 desainer,

157
00:09:12,426 --> 00:09:15,263
dari pria kulit putih berusia 20-35 tahun
di California,

158
00:09:15,888 --> 00:09:19,725
membuat keputusan yang akan berdampak
pada dua miliar orang.

159
00:09:21,018 --> 00:09:24,438
Dua miliar orang akan mendapat ide
yang tak mereka niatkan

160
00:09:24,522 --> 00:09:28,401
karena desainer di Google berkata,
"Ini cara notifikasi bekerja

161
00:09:28,484 --> 00:09:30,778
di layar yang kau lihat saat bangun pagi."

162
00:09:30,861 --> 00:09:35,283
Kami punya tanggung jawab moral
sebagai Google untuk pecahkan masalah ini.

163
00:09:36,075 --> 00:09:37,743
Aku mengirim presentasi ini

164
00:09:37,827 --> 00:09:41,789
ke 15 hingga 20 rekan terdekatku
di Google.

165
00:09:41,872 --> 00:09:44,959
Aku sangat gugup
dan tak yakin bagaimana reaksinya.

166
00:09:46,460 --> 00:09:48,045
Saat bekerja keesokan harinya,

167
00:09:48,129 --> 00:09:50,464
mayoritas laptop menampilkan
presentasi itu.

168
00:09:50,548 --> 00:09:52,049
PERHATIAN

169
00:09:52,133 --> 00:09:54,552
Kemudian pada hari itu,
ada 400 penonton serentak,

170
00:09:54,635 --> 00:09:57,972
jadi, itu terus menyebar.
Aku menerima surel dari seisi perusahaan.

171
00:09:58,180 --> 00:10:00,266
Orang-orang di setiap departemen berkata,

172
00:10:00,349 --> 00:10:02,852
"Aku setuju.
Kulihat ini memengaruhi anak-anakku

173
00:10:02,935 --> 00:10:06,856
dan orang-orang di sekitarku.
Kita harus melakukan sesuatu."

174
00:10:07,481 --> 00:10:10,818
Rasanya seperti aku meluncurkan revolusi
atau semacamnya.

175
00:10:11,861 --> 00:10:15,197
Kemudian, aku tahu
Larry Page diberi tahu soal presentasi ini

176
00:10:15,281 --> 00:10:17,116
dalam tiga pertemuan terpisah hari itu.

177
00:10:17,950 --> 00:10:20,286
Itu menciptakan semacam momen budaya

178
00:10:20,870 --> 00:10:23,205
yang harus Google anggap serius.

179
00:10:26,000 --> 00:10:26,917
Lalu...

180
00:10:28,461 --> 00:10:29,295
sirna.

181
00:10:34,300 --> 00:10:36,135
Semua orang pada tahun 2006...

182
00:10:37,345 --> 00:10:39,221
termasuk kami di Facebook,

183
00:10:39,305 --> 00:10:43,392
sangat mengagumi Google
dan apa yang telah Google bangun,

184
00:10:43,476 --> 00:10:47,396
yaitu sebuah layanan yang sangat berguna,

185
00:10:47,480 --> 00:10:51,442
yang sejauh kami tahu,
memberi banyak kebaikan bagi dunia.

186
00:10:51,525 --> 00:10:55,196
Mereka pun membangun
mesin penghasil uang paralel.

187
00:10:55,696 --> 00:11:00,034
Kami sangat iri dengan itu.
Bagi kami, itu tampak sangat elegan

188
00:11:00,826 --> 00:11:02,161
dan sempurna.

189
00:11:03,037 --> 00:11:05,206
Facebook sudah ada selama dua tahun

190
00:11:05,873 --> 00:11:08,376
dan aku direkrut untuk mencari tahu

191
00:11:08,459 --> 00:11:10,586
model bisnis untuk perusahaan.

192
00:11:10,670 --> 00:11:13,422
Aku Direktur Monetisasi. Intinya adalah,

193
00:11:13,506 --> 00:11:17,051
"Kau yang akan mencari tahu
cara hal ini menghasilkan uang."

194
00:11:17,134 --> 00:11:19,804
Ada banyak orang
yang melakukan banyak pekerjaan,

195
00:11:19,887 --> 00:11:25,643
tapi aku jelas salah satu orang
yang menunjukkan...

196
00:11:26,769 --> 00:11:28,604
kami harus menghasilkan uang...

197
00:11:29,313 --> 00:11:33,651
dan kurasa model pengiklanan ini
mungkin cara yang paling elegan.

198
00:11:43,077 --> 00:11:44,453
Video apa yang baru Ibu kirim?

199
00:11:44,537 --> 00:11:47,790
Itu dari gelar wicara, tapi cukup bagus.
Pria itu genius.

200
00:11:47,873 --> 00:11:50,668
Dia membahas penghapusan media sosial,
yang harus kau lakukan.

201
00:11:50,751 --> 00:11:52,878
Aku mungkin harus mulai
memblokir surelnya.

202
00:11:52,962 --> 00:11:56,048
Sungguh, aku tak paham ucapannya.
Dia lebih buruk dariku.

203
00:11:56,132 --> 00:11:58,467
- Dia hanya memakainya untuk resep.
- Juga bekerja.

204
00:11:58,551 --> 00:12:00,636
- Serta video olahraga.
- Juga tahu kabar kita.

205
00:12:00,720 --> 00:12:03,305
Serta kabar semua orang yang pernah
dia temui di hidupnya.

206
00:12:04,932 --> 00:12:07,893
<i>Jika Anda memeriksa</i>
<i>umpan berita media sosial</i>

207
00:12:07,977 --> 00:12:11,731
<i>sambil menonton kami,</i>
<i>Anda harus taruh ponselnya dan dengarkan</i>

208
00:12:11,814 --> 00:12:14,817
karena tamu kita berikutnya telah menulis
buku yang luar biasa

209
00:12:14,900 --> 00:12:18,112
soal betapa itu menghancurkan hidup kita.

210
00:12:18,195 --> 00:12:19,447
Tolong sambut penulis

211
00:12:19,530 --> 00:12:24,452
<i>Ten Arguments For Deleting</i>
<i>Your Social Media Accounts Right Now,</i>

212
00:12:24,535 --> 00:12:25,786
Jaron Lanier.

213
00:12:26,287 --> 00:12:27,288
Itu benar.

214
00:12:27,997 --> 00:12:31,834
<i>Perusahaan seperti Google dan Facebook</i>
<i>adalah yang terkaya</i>

215
00:12:31,917 --> 00:12:33,627
dan tersukses sepanjang masa.

216
00:12:34,295 --> 00:12:36,839
Mereka punya pegawai yang relatif sedikit.

217
00:12:36,922 --> 00:12:40,760
Mereka punya komputer raksasa
yang mudah menghasilkan uang, bukan?

218
00:12:41,510 --> 00:12:45,222
Untuk apa mereka dibayar?
Itu pertanyaan yang sangat penting.

219
00:12:47,308 --> 00:12:50,186
<i>Aku sudah menjadi investor</i>
<i>di bidang teknologi selama 35 tahun.</i>

220
00:12:51,020 --> 00:12:54,356
<i>Pada 50 tahun pertama Silicon Valley,</i>
<i>industri ini membuat produk,</i>

221
00:12:54,440 --> 00:12:56,525
perangkat keras dan lunak,
dijual ke pelanggan.

222
00:12:56,609 --> 00:12:58,402
Itu bisnis yang sederhana.

223
00:12:58,486 --> 00:13:01,530
Selama sepuluh tahun terakhir,
perusahaan terbesar di Silicon Valley

224
00:13:01,614 --> 00:13:03,866
berbisnis dengan menjual penggunanya.

225
00:13:03,949 --> 00:13:05,910
Bahkan kini agak basi untuk mengatakannya,

226
00:13:05,993 --> 00:13:09,205
tapi karena kita tak membayar produk
yang kita gunakan,

227
00:13:09,288 --> 00:13:12,166
pengiklan membayar
produk yang kita gunakan.

228
00:13:12,249 --> 00:13:14,084
Pengiklan adalah pelanggannya.

229
00:13:14,710 --> 00:13:16,086
Kitalah yang dijual.

230
00:13:16,170 --> 00:13:17,630
Pepatah klasiknya adalah,

231
00:13:17,713 --> 00:13:21,592
"Jika kau tak membayar produknya,
berarti kaulah produknya."

232
00:13:21,675 --> 00:13:23,302
KAULAH PRODUKNYA

233
00:13:23,385 --> 00:13:27,139
Banyak orang berpikir,
"Google hanyalah kotak pencarian

234
00:13:27,223 --> 00:13:29,850
dan Facebook hanya tempat
untuk melihat kabar teman-temanku

235
00:13:29,934 --> 00:13:31,101
dan melihat foto mereka."

236
00:13:31,185 --> 00:13:35,481
Namun, mereka tak sadar
mereka bersaing memikat perhatianmu.

237
00:13:36,524 --> 00:13:41,111
Jadi, Facebook, Snapchat, Twitter,
Instagram, YouTube,

238
00:13:41,195 --> 00:13:45,491
model bisnis perusahaan seperti ini
adalah membuat orang terpaku di layar.

239
00:13:46,283 --> 00:13:49,578
Mari kita cari tahu
cara mendapatkan perhatian orang ini

240
00:13:49,662 --> 00:13:50,955
sebanyak mungkin.

241
00:13:51,455 --> 00:13:53,541
Kami bisa membuatmu
habiskan waktu selama apa?

242
00:13:53,916 --> 00:13:56,794
Kami bisa membuatmu memberi hidupmu
sebanyak apa kepada kami?

243
00:13:58,671 --> 00:14:01,090
<i>Saat memikirkan</i>
<i>cara kerja beberapa perusahaan ini,</i>

244
00:14:01,173 --> 00:14:02,508
<i>itu mulai menjadi masuk akal.</i>

245
00:14:03,050 --> 00:14:06,095
Ada banyak layanan di internet
yang kita anggap gratis.

246
00:14:06,178 --> 00:14:09,473
Namun, itu tak gratis.
Semua itu dibayar oleh pengiklan.

247
00:14:09,557 --> 00:14:11,559
Kenapa pengiklan membayar perusahaan itu?

248
00:14:11,642 --> 00:14:14,687
Mereka membayar
untuk menampilkan iklan kepada kita.

249
00:14:14,770 --> 00:14:15,729
Kitalah produknya.

250
00:14:15,813 --> 00:14:18,357
Perhatian kita adalah produk
yang dijual ke pengiklan.

251
00:14:18,816 --> 00:14:20,442
Itu agak terlalu sederhana.

252
00:14:20,818 --> 00:14:23,654
Perubahan perlahan, kecil,
dan tak terlihat

253
00:14:23,737 --> 00:14:26,073
dalam perilaku dan persepsi kita,
itulah produknya.

254
00:14:26,156 --> 00:14:27,575
PERUBAHAN PERILAKU DAN PERSEPSI

255
00:14:27,658 --> 00:14:30,244
Itulah produknya.
Hanya itu produk yang mungkin.

256
00:14:30,327 --> 00:14:34,081
Tak ada kemungkinan lain
yang bisa disebut produk.

257
00:14:34,164 --> 00:14:37,251
Hanya itu sumber uang mereka.

258
00:14:37,668 --> 00:14:39,253
Mengubah perilaku,

259
00:14:39,336 --> 00:14:41,714
cara berpikir, dan jati diri kita.

260
00:14:42,631 --> 00:14:45,301
Perubahannya perlahan dan kecil.

261
00:14:45,384 --> 00:14:48,971
Jika bisa datangi seseorang dan berkata,
"Beri aku sepuluh juta dolar

262
00:14:49,054 --> 00:14:54,310
dan akan kuubah dunia
satu persen ke arah yang kau mau..."

263
00:14:54,894 --> 00:14:58,188
Itu dunia! Itu bisa luar biasa
dan harganya mahal.

264
00:14:59,315 --> 00:15:00,149
Baiklah.

265
00:15:00,691 --> 00:15:04,570
<i>Inilah yang selalu diimpikan semua bisnis,</i>

266
00:15:04,653 --> 00:15:10,910
untuk memiliki jaminan keberhasilan
saat iklannya dipasang.

267
00:15:11,285 --> 00:15:12,786
Itulah bisnis mereka.

268
00:15:12,995 --> 00:15:14,788
Mereka menjual kepastian.

269
00:15:14,997 --> 00:15:17,625
Agar sukses dalam bisnis itu,

270
00:15:17,708 --> 00:15:19,752
kita harus punya prediksi bagus.

271
00:15:20,044 --> 00:15:24,173
Prediksi besar dimulai
dengan satu hal penting.

272
00:15:25,215 --> 00:15:26,926
Kita butuh banyak data.

273
00:15:27,009 --> 00:15:29,011
KITA BUTUH BANYAK DATA

274
00:15:29,136 --> 00:15:31,555
Banyak orang menyebut ini
kapitalisme pengawasan.

275
00:15:31,639 --> 00:15:34,350
Kapitalisme yang mengambil untung
dari jejak tak terbatas

276
00:15:34,433 --> 00:15:38,062
dari semua tempat yang semua orang datangi
oleh perusahaan teknologi besar

277
00:15:38,145 --> 00:15:40,397
yang model bisnisnya adalah memastikan

278
00:15:40,481 --> 00:15:42,858
pengiklan bisa sesukses mungkin.

279
00:15:43,150 --> 00:15:45,569
Inilah jenis lokapasar baru saat ini.

280
00:15:45,653 --> 00:15:48,072
Ini lokapasar yang belum pernah ada.

281
00:15:48,822 --> 00:15:55,371
Ini lokapasar yang hanya memperdagangkan
prediksi nilai saham manusia.

282
00:15:56,330 --> 00:15:58,499
Seperti pasar yang memperdagangkan

283
00:15:58,582 --> 00:16:01,585
prediksi nilai saham perut babi
atau minyak.

284
00:16:02,127 --> 00:16:04,713
Kini kita punya pasar yang memperdagangkan

285
00:16:04,797 --> 00:16:07,591
prediksi nilai saham manusia
dalam skala besar

286
00:16:08,175 --> 00:16:13,472
dan pasar itu telah menghasilkan
triliunan dolar

287
00:16:14,014 --> 00:16:19,269
yang menjadikan perusahaan internet
sebagai perusahaan terkaya

288
00:16:19,353 --> 00:16:22,564
dalam sejarah kemanusiaan.

289
00:16:27,444 --> 00:16:31,073
<i>Aku ingin orang tahu</i>
<i>semua yang mereka lakukan di internet</i>

290
00:16:31,156 --> 00:16:34,326
<i>diawasi, dilacak, dan diukur.</i>

291
00:16:35,035 --> 00:16:39,623
Setiap tindakan yang kita lakukan dipantau
dan direkam dengan hati-hati.

292
00:16:39,707 --> 00:16:43,836
Misalnya, gambar yang kita lihat
dan berapa lama kita melihatnya.

293
00:16:43,919 --> 00:16:45,796
Ya, sungguh, berapa lama kau melihatnya.

294
00:16:45,879 --> 00:16:47,548
NAVIYA_R
WAKTU KETERLIBATAN

295
00:16:47,631 --> 00:16:49,216
RYAN_M
WAKTU KETERLIBATAN

296
00:16:49,299 --> 00:16:50,426
WREN_F
WAKTU KETERLIBATAN

297
00:16:50,509 --> 00:16:53,804
Mereka tahu saat orang kesepian, depresi,

298
00:16:53,887 --> 00:16:57,099
dan tahu saat orang melihat
foto mantan pasanganmu.

299
00:16:57,182 --> 00:17:00,853
Mereka tahu yang kau lakukan
saat larut malam. Mereka tahu semuanya.

300
00:17:01,228 --> 00:17:03,230
Entah kau introver, ekstrover,

301
00:17:03,313 --> 00:17:06,942
jenis neurosis yang kau punya,
atau seperti apa kepribadianmu.

302
00:17:08,193 --> 00:17:11,613
Mereka punya lebih banyak informasi
soal kita

303
00:17:11,697 --> 00:17:14,324
daripada yang pernah dibayangkan
dalam sejarah manusia.

304
00:17:14,950 --> 00:17:16,452
Ini belum pernah terjadi.

305
00:17:18,579 --> 00:17:22,791
Jadi, semua data yang kita berikan
setiap saat

306
00:17:22,875 --> 00:17:26,754
dimasukkan ke sistem
yang nyaris tak diawasi manusia,

307
00:17:27,463 --> 00:17:30,883
yang terus membuat
prediksi yang makin membaik

308
00:17:30,966 --> 00:17:33,552
tentang apa yang akan kita lakukan
dan siapa kita.

309
00:17:34,887 --> 00:17:36,346
DIREKOMENDASIKAN UNTUKMU

310
00:17:36,430 --> 00:17:39,683
<i>Banyak orang salah memahami</i>
<i>bahwa data kita yang dijual.</i>

311
00:17:40,350 --> 00:17:43,187
Memberi data secara gratis
bukanlah minat bisnis Facebook.

312
00:17:45,522 --> 00:17:47,107
<i>Mereka apakan data itu?</i>

313
00:17:51,070 --> 00:17:54,490
<i>Mereka membuat model</i>
<i>yang memprediksi tindakan kita.</i>

314
00:17:54,573 --> 00:17:57,618
<i>Siapa pun yang punya model terbaik</i>
<i>akan menang.</i>

315
00:18:02,706 --> 00:18:04,041
Kecepatan gulungnya melambat.

316
00:18:04,124 --> 00:18:06,919
Mendekati akhir rata-rata durasi sesinya,
mengurangi iklan.

317
00:18:07,002 --> 00:18:08,337
Tampilkan teman dan keluarga.

318
00:18:09,671 --> 00:18:11,340
<i>Di sisi lain layar, </i>

319
00:18:11,423 --> 00:18:15,469
<i>mereka seperti punya model boneka </i>voodoo
<i>yang menyerupai kita.</i>

320
00:18:16,762 --> 00:18:18,180
<i>Semua yang pernah kita lakukan,</i>

321
00:18:18,263 --> 00:18:19,473
semua klik yang kita buat,

322
00:18:19,556 --> 00:18:21,683
semua video yang kita tonton,
semua tombol suka.

323
00:18:21,767 --> 00:18:25,354
Semua itu diolah untuk membangun
model yang lebih akurat.

324
00:18:25,896 --> 00:18:27,481
Setelah modelnya ada,

325
00:18:27,564 --> 00:18:29,858
kita bisa memprediksi
hal-hal yang dilakukan orang.

326
00:18:30,150 --> 00:18:31,944
Baiklah, coba aku tes.

327
00:18:32,569 --> 00:18:34,404
<i>Ke mana kau akan pergi, bisa kuprediksi</i>

328
00:18:34,488 --> 00:18:36,198
<i>video apa yang akan terus kau tonton.</i>

329
00:18:36,281 --> 00:18:39,159
<i>Aku bisa memprediksi emosi macam apa</i>
<i>yang memicumu.</i>

330
00:18:39,243 --> 00:18:40,410
Ya, sempurna.

331
00:18:41,578 --> 00:18:43,372
Kegagalan terhebat tahun ini.

332
00:18:43,747 --> 00:18:44,665
KEGAGALAN HEBAT!

333
00:18:48,627 --> 00:18:51,088
- Sempurna, itu berhasil.
- Disusul video lain.

334
00:18:51,171 --> 00:18:54,049
Bagus. Mari selipkan iklan sepatu
sebelum videonya diputar.

335
00:18:56,426 --> 00:18:59,721
<i>Ada tiga tujuan utama</i>
<i>di banyak perusahaan teknologi ini.</i>

336
00:18:59,805 --> 00:19:03,517
<i>Ada tujuan keterlibatan untuk menaikkan</i>
<i>penggunaanmu, agar terus gulirkan layar.</i>

337
00:19:04,601 --> 00:19:06,145
Ada tujuan pertumbuhan

338
00:19:06,228 --> 00:19:08,689
<i>untuk membuatmu kembali,</i>
<i>mengundang banyak teman,</i>

339
00:19:08,772 --> 00:19:10,816
<i>dan agar mereka mengundang</i>
<i>lebih banyak teman.</i>

340
00:19:11,650 --> 00:19:14,987
Lalu ada tujuan iklan untuk memastikan
bahwa seiring semua itu terjadi,

341
00:19:15,070 --> 00:19:17,406
kami menghasilkan
uang sebanyak mungkin dari iklan.

342
00:19:19,366 --> 00:19:21,952
Masing-masing tujuan ini ditenagai
oleh algoritme

343
00:19:22,035 --> 00:19:24,454
yang bertugas mencari tahu
apa yang harus ditunjukkan

344
00:19:24,538 --> 00:19:26,165
agar jumlahnya terus naik.

345
00:19:26,623 --> 00:19:29,918
Di Facebook, kami sering membahas ide

346
00:19:30,002 --> 00:19:34,006
untuk bisa mengaturnya sesuai kebutuhan.

347
00:19:34,673 --> 00:19:38,594
Kami membahas
soal meminta Mark mengaturnya.

348
00:19:41,305 --> 00:19:44,600
"Hei, aku ingin lebih banyak pengguna
di Korea hari ini."

349
00:19:45,684 --> 00:19:46,768
Putar pengaturnya.

350
00:19:47,436 --> 00:19:49,271
"Mari tambah iklannya sedikit."

351
00:19:49,980 --> 00:19:51,815
"Tambah monetisasinya sedikit."

352
00:19:53,150 --> 00:19:55,444
Jadi, itu...

353
00:19:55,527 --> 00:19:59,239
Di semua perusahaan ini,
ada tingkat presisi sebesar itu.

354
00:19:59,990 --> 00:20:02,409
- Bung...
- Entah kenapa aku tak diberi kartu.

355
00:20:02,492 --> 00:20:05,704
- Wasit itu payah.
- Kau benar-benar...

356
00:20:05,787 --> 00:20:08,040
- Itu Rebecca. Bicaralah.
- Aku tahu siapa dia.

357
00:20:08,123 --> 00:20:10,834
- Kau saja yang bicara.
- Sedang kuusahakan.

358
00:20:10,918 --> 00:20:14,171
Menurut kalendernya, dia sedang istirahat.
Seharusnya kita sudah mulai.

359
00:20:15,464 --> 00:20:16,465
Mau kudorong dia?

360
00:20:17,132 --> 00:20:18,050
Lakukanlah.

361
00:20:21,720 --> 00:20:24,181
"Temanmu, Tyler, baru bergabung.
Beri lambaian."

362
00:20:26,016 --> 00:20:27,184
Ayolah.

363
00:20:27,267 --> 00:20:28,769
Kirimkan lambaian tangan.

364
00:20:29,394 --> 00:20:31,647
Kau bahkan tidak...
Hei, bicaralah dengannya.

365
00:20:31,730 --> 00:20:34,900
TEMANMU, TYLER, BARU BERGABUNG!
BERI LAMBAIAN!

366
00:20:36,902 --> 00:20:37,986
KONEKSI JARINGAN

367
00:20:38,070 --> 00:20:40,572
Koneksi baru! Baiklah, kita masuk.

368
00:20:40,948 --> 00:20:46,078
Lanjutkan dengan pos
dari pengguna 079044238820, Rebecca.

369
00:20:46,161 --> 00:20:49,790
Ide bagus. Koordinat GPS menunjukkan
jarak mereka berdekatan.

370
00:20:52,167 --> 00:20:55,837
REBECCA_G
KUTEMUKAN BELAHAN JIWAKU!

371
00:20:55,921 --> 00:20:57,172
Dia siap untuk iklan.

372
00:20:57,631 --> 00:20:58,632
Waktu lelang.

373
00:20:58,715 --> 00:21:00,050
PRATINJAU IKLAN

374
00:21:00,509 --> 00:21:02,803
Terjual! Untuk lilin rambut Deep Fade.

375
00:21:03,387 --> 00:21:04,846
Ada 468 penawar yang berminat.

376
00:21:04,930 --> 00:21:08,225
Kita menjual Ben seharga 3,262 sen
untuk satu impresi.

377
00:21:17,109 --> 00:21:21,530
<i>Kita telah menciptakan dunia</i>
<i>tempat koneksi daring menjadi hal utama,</i>

378
00:21:22,072 --> 00:21:23,907
<i>khususnya bagi generasi muda.</i>

379
00:21:23,991 --> 00:21:28,328
<i>Namun, di dunia itu,</i>
<i>setiap dua orang terhubung,</i>

380
00:21:29,162 --> 00:21:33,250
itu hanya bisa didanai
oleh orang ketiga yang licik

381
00:21:33,333 --> 00:21:35,627
yang membayar
untuk memanipulasi dua orang itu.

382
00:21:36,128 --> 00:21:39,381
Jadi, kita menciptakan
seluruh generasi global

383
00:21:39,464 --> 00:21:44,011
yang dibesarkan dalam konteks
bahwa makna sebenarnya dari komunikasi

384
00:21:44,094 --> 00:21:47,431
dan budaya adalah manipulasi.

385
00:21:47,514 --> 00:21:49,725
Kita telah menempatkan penipuan
dan kelicikan

386
00:21:49,808 --> 00:21:52,311
di tengah-tengah dari semua usaha kita.

387
00:21:56,732 --> 00:22:01,153
"SEMUA TEKNOLOGI YANG CANGGIH

388
00:22:01,236 --> 00:22:05,657
TIDAKLAH BERBEDA DARI SULAP."
ARTHUR C. CLARKE

389
00:22:05,741 --> 00:22:07,159
- Pegang sisi lainnya...
- Baik.

390
00:22:07,242 --> 00:22:09,369
- Di mana tempat menaruh yang baik?
- Itu bagus.

391
00:22:09,453 --> 00:22:10,620
- Di sini?
- Ya.

392
00:22:10,704 --> 00:22:13,707
Seperti apa ini tampil di kamera
jika kulakukan...

393
00:22:13,790 --> 00:22:15,500
- Sebenarnya, kami...
- Seperti itu?

394
00:22:15,584 --> 00:22:16,835
- Apa?
- Ya.

395
00:22:16,918 --> 00:22:18,545
- Bisa lakukan lagi?
- Baik.

396
00:22:19,046 --> 00:22:20,589
Ya. Itu mungkin tidak...

397
00:22:20,672 --> 00:22:21,965
Ya.

398
00:22:22,466 --> 00:22:23,884
Yang satu ini kurang...

399
00:22:31,016 --> 00:22:33,268
Chris benar-benar kebingungan di sini.

400
00:22:34,728 --> 00:22:35,562
Apa itu bagus?

401
00:22:35,645 --> 00:22:37,773
SULAP!

402
00:22:37,856 --> 00:22:41,068
Usiaku lima tahun saat belajar sulap.

403
00:22:41,151 --> 00:22:45,781
Aku bisa membodohi para orang dewasa
yang bergelar doktor.

404
00:22:55,040 --> 00:22:58,919
Pesulap itu hampir seperti ahli saraf
dan psikolog pertama.

405
00:22:59,002 --> 00:23:03,382
Mereka yang pertama memahami
cara kerja pikiran orang.

406
00:23:04,216 --> 00:23:07,677
Mereka secara langsung menguji banyak hal
pada orang-orang.

407
00:23:09,137 --> 00:23:11,139
Seorang pesulap memahami sesuatu,

408
00:23:11,223 --> 00:23:14,017
sebagian dari pikiranmu
yang tak kita sadari.

409
00:23:14,101 --> 00:23:15,936
Itulah yang membuat ilusi berhasil.

410
00:23:16,269 --> 00:23:17,687
Dokter, pengacara,

411
00:23:17,771 --> 00:23:20,607
orang yang tahu cara membuat Boeing 747
atau misil nuklir,

412
00:23:20,690 --> 00:23:24,361
mereka tak lebih tahu
soal betapa rentannya pikiran mereka.

413
00:23:24,444 --> 00:23:26,154
Itu bidang ilmu yang berbeda.

414
00:23:26,571 --> 00:23:28,990
Itulah bidang ilmu yang berlaku
untuk semua manusia.

415
00:23:29,074 --> 00:23:30,909
UNIVERSITAS STANFORD

416
00:23:30,992 --> 00:23:34,079
Dari sudut pandang itu, kita bisa memiliki
pemahaman sangat berbeda

417
00:23:34,162 --> 00:23:35,705
soal hal yang teknologi lakukan.

418
00:23:36,873 --> 00:23:39,584
Saat belajar
di Lab Teknologi Persuasif Stanford,

419
00:23:39,668 --> 00:23:41,044
inilah yang kami pelajari.

420
00:23:41,586 --> 00:23:43,505
Bagaimana memanfaatkan
semua yang kita tahu

421
00:23:43,588 --> 00:23:45,882
tentang psikologi dari cara membujuk orang

422
00:23:45,966 --> 00:23:48,385
dan menjadikannya teknologi?

423
00:23:48,468 --> 00:23:50,762
Banyak dari kalian yang hadir
yang sudah genius.

424
00:23:50,846 --> 00:23:53,682
Kurasa itu benar,
tapi tujuanku adalah menjadikan kalian

425
00:23:53,765 --> 00:23:55,892
genius dalam perubahan perilaku.

426
00:23:56,852 --> 00:24:01,148
Ada banyak tokoh ternama di Silicon Valley
yang mengikuti kelas itu,

427
00:24:01,231 --> 00:24:05,485
tokoh kunci pertumbuhan di Facebook, Uber,
juga perusahaan lain,

428
00:24:05,569 --> 00:24:09,197
dan belajar membuat teknologi
lebih persuasif,

429
00:24:09,614 --> 00:24:10,949
Tristan salah satunya.

430
00:24:12,242 --> 00:24:14,619
Teknologi persuasif itu semacam desain

431
00:24:14,703 --> 00:24:16,580
yang sengaja diterapkan secara ekstrem,

432
00:24:16,663 --> 00:24:18,874
agar kami bisa mengubah
perilaku seseorang.

433
00:24:18,957 --> 00:24:20,542
Kami ingin mereka melakukan sesuatu

434
00:24:20,625 --> 00:24:23,336
dan terus melakukan ini
dengan jari mereka.

435
00:24:23,420 --> 00:24:26,256
Jika tarik layar dan segarkan,
akan muncul hal baru di atas.

436
00:24:26,339 --> 00:24:28,508
Tarik dan segarkan lagi, hal baru.
Setiap kali.

437
00:24:28,592 --> 00:24:33,722
<i>Dalam psikologi,</i>
<i>itu disebut penguat intermiten positif.</i>

438
00:24:33,805 --> 00:24:37,142
Kita tak tahu kapan
atau apakah kita akan mendapatkannya.

439
00:24:37,225 --> 00:24:40,061
Itu bekerja seperti mesin slot di Vegas.

440
00:24:40,145 --> 00:24:42,189
Bukan hanya memakai
produknya secara sadar,

441
00:24:42,272 --> 00:24:44,024
tapi aku mau masuk jauh ke batang otak

442
00:24:44,107 --> 00:24:47,652
dan menanamkan kebiasaan secara tak sadar
di dalam dirimu

443
00:24:47,736 --> 00:24:50,780
agar kau diprogram secara lebih mendalam.

444
00:24:50,864 --> 00:24:52,115
Kau bahkan tak sadar.

445
00:24:52,407 --> 00:24:53,867
Pria bernama James Marshall...

446
00:24:53,950 --> 00:24:56,286
<i>Setiap itu tampak di atas meja,</i>

447
00:24:56,369 --> 00:24:59,789
<i>kau melihatnya</i>
<i>dan tahu jika kau mengambilnya,</i>

448
00:24:59,873 --> 00:25:01,333
mungkin ada sesuatu untukmu.

449
00:25:01,416 --> 00:25:03,877
Jadi, kau memainkannya
untuk melihat kau dapat apa.

450
00:25:04,211 --> 00:25:06,046
Itu bukan kebetulan, tapi teknik desain.

451
00:25:06,129 --> 00:25:11,134
Dia membawa bungkal emas
ke perwira AD di San Francisco.

452
00:25:12,219 --> 00:25:15,388
Ingatlah, populasi San Francisco hanya...

453
00:25:15,472 --> 00:25:17,432
<i>Contoh lainnya adalah penandaan foto.</i>

454
00:25:19,726 --> 00:25:24,064
<i>Jadi, jika menerima surel yang menyebutkan</i>
<i>temanmu baru saja menandaimu di foto,</i>

455
00:25:24,147 --> 00:25:28,568
<i>tentu kau akan membuka surel itu</i>
<i>dan melihat fotonya.</i>

456
00:25:29,152 --> 00:25:31,947
<i>Itu bukan hal yang bisa kau abaikan</i>
<i>begitu saja.</i>

457
00:25:32,364 --> 00:25:36,326
Ini adalah kepribadian mendalam manusia
yang mereka manfaatkan.

458
00:25:36,409 --> 00:25:37,994
Yang harus kau tanyakan adalah,

459
00:25:38,078 --> 00:25:40,288
"Kenapa surel itu tak berisi fotonya?

460
00:25:40,372 --> 00:25:42,457
Maka akan lebih mudah melihat fotonya."

461
00:25:42,707 --> 00:25:45,919
Saat Facebook menemukan fitur itu,
mereka memaksimalkannya

462
00:25:46,002 --> 00:25:48,505
karena itu dianggap bagus
untuk menumbuhkan aktivitas.

463
00:25:48,588 --> 00:25:51,091
Mari buat orang saling menandai foto
sepanjang hari."

464
00:25:56,263 --> 00:25:58,890
SETIDAKNYA SALAH SATU DARI KITA
TAMPAK BAGUS

465
00:25:59,349 --> 00:26:00,475
Dia berkomentar.

466
00:26:00,559 --> 00:26:01,434
Bagus.

467
00:26:01,935 --> 00:26:04,688
Rebecca menerimanya dan dia merespons.

468
00:26:04,771 --> 00:26:07,566
Beri tahu Ben Rebecca mengetik
agar kita tak kehilangan dia.

469
00:26:07,649 --> 00:26:08,900
Mengaktifkan elipsis.

470
00:26:09,234 --> 00:26:13,613
SETIDAKNYA SALAH SATU DARI KITA
TAMPAK BAGUS

471
00:26:19,411 --> 00:26:20,787
Bagus, dia menjawab.

472
00:26:21,538 --> 00:26:24,249
Dia mengomentari komentarnya
soal komentarnya di posnya.

473
00:26:25,041 --> 00:26:26,418
Tunggu, dia berhenti mengetik.

474
00:26:26,751 --> 00:26:27,752
Beri isi otomatis.

475
00:26:28,420 --> 00:26:30,005
Emoji. Dia suka emoji.

476
00:26:31,381 --> 00:26:33,758
ISI OTOMATIS
KETERLIBATAN

477
00:26:33,842 --> 00:26:34,676
Dia memilih api.

478
00:26:35,427 --> 00:26:36,803
Tadi kuharap terung.

479
00:26:38,597 --> 00:26:42,726
<i>Ada disiplin dan bidang ilmu</i>
<i>yang disebut "peretasan pertumbuhan".</i>

480
00:26:42,809 --> 00:26:47,147
Tim teknisi yang bertugas
meretas psikologi orang

481
00:26:47,230 --> 00:26:48,565
agar dapat pertumbuhan lebih.

482
00:26:48,648 --> 00:26:51,026
Mendapat pendaftaran pengguna
dan keterlibatan lebih,

483
00:26:51,109 --> 00:26:52,861
juga membuat kita mengajak orang lagi.

484
00:26:52,944 --> 00:26:55,989
Setelah semua tes, iterasi,
dan semua ini,

485
00:26:56,072 --> 00:26:57,907
tahu hal terbesar yang kami sadari?

486
00:26:57,991 --> 00:27:00,994
Buat orang ajak tujuh teman
dalam sepuluh hari.

487
00:27:01,953 --> 00:27:02,871
Itu saja.

488
00:27:02,954 --> 00:27:05,498
Dulu Chamath adalah
kepala pertumbuhan Facebook

489
00:27:05,582 --> 00:27:08,251
dan dia sangat terkenal
di industri teknologi

490
00:27:08,335 --> 00:27:11,004
karena memelopori
banyak taktik pertumbuhan

491
00:27:11,087 --> 00:27:14,758
yang digunakan untuk menumbuhkan Facebook
dengan sangat cepat.

492
00:27:14,841 --> 00:27:18,511
Taktik pertumbuhan itu lalu menjadi
standar untuk Silicon Valley.

493
00:27:18,595 --> 00:27:21,222
Itu digunakan di Uber
dan beberapa perusahaan lain.

494
00:27:21,306 --> 00:27:27,062
Salah satu yang dia pelopori adalah
penggunaan uji A/B ilmiah

495
00:27:27,145 --> 00:27:28,480
dari perubahan fitur kecil.

496
00:27:29,022 --> 00:27:30,940
Perusahaan seperti Google dan Facebook

497
00:27:31,024 --> 00:27:34,569
akan mengeluarkan
banyak eksperimen kecil

498
00:27:34,653 --> 00:27:36,821
yang terus mereka lakukan pada pengguna.

499
00:27:36,905 --> 00:27:39,866
Seiring waktu,
dengan terus menjalankan eksperimen ini,

500
00:27:39,949 --> 00:27:42,994
mereka mengembangkan cara paling maksimal

501
00:27:43,078 --> 00:27:45,288
untuk membuat pengguna
melakukan yang mereka mau.

502
00:27:45,372 --> 00:27:46,790
Itu manipulasi.

503
00:27:47,332 --> 00:27:49,417
Kau membuatku merasa
seperti kelinci percobaan.

504
00:27:49,834 --> 00:27:51,961
Kau memang kelinci percobaan.
Kita semua begitu.

505
00:27:52,545 --> 00:27:55,548
Namun, bukan kelinci percobaan
untuk mengembangkan obat kanker.

506
00:27:55,632 --> 00:27:58,134
Mereka bukan mencoba memperalat kita.

507
00:27:58,218 --> 00:28:01,513
Kita hanya zombi dan mereka ingin
kita melihat lebih banyak iklan

508
00:28:01,596 --> 00:28:03,264
agar mereka dapat lebih banyak uang.

509
00:28:03,556 --> 00:28:08,228
<i>Facebook melakukan hal yang mereka sebut</i>
<i>"eksperimen penularan skala besar".</i>

510
00:28:08,311 --> 00:28:09,145
Baiklah<i>.</i>

511
00:28:09,229 --> 00:28:12,857
<i>Bagaimana gunakan petunjuk bawah sadar</i>
<i>di halaman Facebook</i>

512
00:28:13,400 --> 00:28:17,570
agar lebih banyak orang memilih
di pemilu paruh waktu?

513
00:28:17,987 --> 00:28:20,824
Mereka mendapati
mereka mampu melakukan itu.

514
00:28:20,907 --> 00:28:24,160
Satu hal yang mereka simpulkan
adalah kini kita tahu

515
00:28:24,744 --> 00:28:28,915
kita bisa memengaruhi perilaku
dan emosi dunia nyata

516
00:28:28,998 --> 00:28:32,877
tanpa memicu kesadaran pengguna.

517
00:28:33,503 --> 00:28:37,382
Mereka sama sekali tak tahu.

518
00:28:38,049 --> 00:28:40,427
Kita mengarahkan
mesin inteligensi artifisial ini

519
00:28:40,510 --> 00:28:41,970
pada diri kita

520
00:28:42,053 --> 00:28:46,224
untuk merekayasa balik
pemicu respons kita.

521
00:28:47,100 --> 00:28:49,602
Hampir seperti menstimulasi
sel saraf laba-laba

522
00:28:49,686 --> 00:28:51,479
untuk melihat pemicu respons kakinya.

523
00:28:51,938 --> 00:28:53,940
Ini sungguh semacam eksperimen penjara

524
00:28:54,023 --> 00:28:56,735
tempat kita memaksa orang memasuki matriks

525
00:28:56,818 --> 00:29:00,530
lalu kita mengambil semua uang dan data
dari semua aktivitas mereka

526
00:29:00,613 --> 00:29:01,489
sebagai keuntungan.

527
00:29:01,573 --> 00:29:03,450
Kita bahkan tak tahu itu sedang terjadi.

528
00:29:04,117 --> 00:29:07,912
Kami ingin secara psikologis tahu
cara memanipulasimu secepat mungkin

529
00:29:07,996 --> 00:29:10,081
lalu membalasnya dengan stimulasi dopamin.

530
00:29:10,165 --> 00:29:12,542
Kami melakukannya dengan sangat baik
di Facebook.

531
00:29:12,625 --> 00:29:14,919
Instagram dan WhatsApp melakukannya.

532
00:29:15,003 --> 00:29:17,380
Snapchat dan Twitter melakukannya.

533
00:29:17,672 --> 00:29:19,424
Maksudku, itu persis ide

534
00:29:19,507 --> 00:29:22,427
yang akan dicetuskan
oleh peretas sepertiku

535
00:29:22,510 --> 00:29:27,432
karena kita mengeksploitasi kelemahan
dalam psikologi manusia.

536
00:29:27,766 --> 00:29:33,438
Kupikir kami, para penemu dan pencipta...

537
00:29:33,980 --> 00:29:37,317
Aku, Mark dan...

538
00:29:37,400 --> 00:29:40,403
Kevin Systrom di Instagram,
semua orang ini...

539
00:29:41,154 --> 00:29:46,451
memahami ini secara sadar
dan kami tetap melakukannya.

540
00:29:50,580 --> 00:29:53,750
Tak ada yang marah saat sepeda ditemukan.

541
00:29:55,043 --> 00:29:58,004
Benar, bukan?
Jika semua orang mulai mengendarai sepeda,

542
00:29:58,087 --> 00:30:00,965
tak ada yang bilang,
"Astaga, kita baru merusak masyarakat.

543
00:30:01,049 --> 00:30:03,051
Sepeda memengaruhi orang,

544
00:30:03,134 --> 00:30:05,303
menjauhkan mereka dari anak-anak mereka,

545
00:30:05,386 --> 00:30:08,723
merusak struktur demokrasi,
orang tak tahu mana yang benar."

546
00:30:08,807 --> 00:30:11,476
Kita tak pernah berkata begitu
soal sepeda.

547
00:30:12,769 --> 00:30:16,147
Jika sesuatu adalah alat,
ia hanya duduk diam di sana,

548
00:30:16,731 --> 00:30:18,733
menunggu dengan sabar.

549
00:30:19,317 --> 00:30:22,821
Jika sesuatu bukan alat,
ia menuntut sesuatu darimu,

550
00:30:22,904 --> 00:30:26,533
merayu, memanipulasi,
dan menginginkan sesuatu darimu.

551
00:30:26,950 --> 00:30:30,495
Kita beralih dari memiliki
lingkungan teknologi berbasis alat

552
00:30:31,037 --> 00:30:34,499
ke lingkungan teknologi berbasis kecanduan
dan manipulasi.

553
00:30:34,582 --> 00:30:35,708
Itu yang berubah.

554
00:30:35,792 --> 00:30:39,420
Media sosial bukan alat
yang menunggu untuk digunakan.

555
00:30:39,504 --> 00:30:43,466
Ia punya tujuan dan cara sendiri
untuk memperolehnya

556
00:30:43,550 --> 00:30:45,677
menggunakan psikologimu melawan dirimu.

557
00:30:49,055 --> 00:30:52,517
"HANYA ADA DUA INDUSTRI YANG MENYEBUT
PELANGGAN MEREKA 'PENGGUNA',

558
00:30:52,600 --> 00:30:57,480
NARKOBA DAN PERANTI LUNAK."
EDWARD TUFTE

559
00:30:57,564 --> 00:31:02,193
<i>Beberapa tahun lalu,</i>
<i>aku adalah Presiden Pinterest.</i>

560
00:31:03,152 --> 00:31:08,366
Aku pulang dan tak bisa menjauhi ponselku
begitu tiba di rumah,

561
00:31:08,449 --> 00:31:12,161
meski aku punya dua anak kecil
yang butuh cinta dan perhatianku.

562
00:31:12,245 --> 00:31:15,748
Aku ada di dapur, mengetik surel

563
00:31:15,832 --> 00:31:17,625
atau kadang melihat Pinterest.

564
00:31:18,001 --> 00:31:19,627
Kupikir, "Ini sungguh ironis.

565
00:31:19,711 --> 00:31:22,046
Aku akan bekerja di siang hari

566
00:31:22,130 --> 00:31:26,426
dan membangun sesuatu
yang kemudian memanipulasiku."

567
00:31:26,509 --> 00:31:30,096
Aku tak bisa... Maksudku, terkadang,
aku tak bisa menahan diri.

568
00:31:32,307 --> 00:31:36,102
Yang cenderung paling kugunakan
adalah Twitter.

569
00:31:36,728 --> 00:31:38,021
Tadinya Reddit.

570
00:31:38,104 --> 00:31:42,859
Aku bahkan harus membuat perangkat lunak
untuk hapus kecanduanku membaca Reddit.

571
00:31:45,403 --> 00:31:47,780
Aku mungkin kecanduan surel.

572
00:31:47,864 --> 00:31:49,866
Sungguh. Aku merasakannya.

573
00:31:52,577 --> 00:31:54,954
Rasanya menarik

574
00:31:55,038 --> 00:31:58,166
meski aku tahu
apa yang terjadi di balik layar,

575
00:31:58,249 --> 00:32:01,628
aku masih tak bisa mengendalikan
penggunaanku.

576
00:32:01,711 --> 00:32:03,254
Jadi, itu agak menakutkan.

577
00:32:03,630 --> 00:32:07,050
Meski tahu cara kerjanya,
aku masih rentan terhadapnya.

578
00:32:07,133 --> 00:32:09,886
Aku masih akan mengangkat ponsel
dan 20 menit akan berlalu.

579
00:32:12,805 --> 00:32:15,725
Apa kau memeriksa ponsel cerdasmu
sebelum kencing saat pagi

580
00:32:15,808 --> 00:32:17,477
atau sambil kencing saat pagi?

581
00:32:17,560 --> 00:32:19,479
Karena hanya ada dua opsi itu.

582
00:32:19,771 --> 00:32:23,274
Aku berusaha dengan tekad kuat,

583
00:32:23,358 --> 00:32:26,903
"Akan kutaruh dan kutinggalkan ponselku
di mobil saat pulang."

584
00:32:26,986 --> 00:32:30,573
Kurasa aku berkata pada diriku seribu kali
pada seribu hari berbeda,

585
00:32:30,657 --> 00:32:32,659
"Aku takkan membawa ponselku
ke kamar tidur,"

586
00:32:32,742 --> 00:32:34,535
lalu saat pukul 21.00 tiba.

587
00:32:34,619 --> 00:32:37,121
"Aku mau membawa ponselku ke kamar tidur."

588
00:32:37,956 --> 00:32:39,290
Jadi, itu semacam...

589
00:32:39,374 --> 00:32:41,125
Kekuatan tekad adalah usaha pertama,

590
00:32:41,209 --> 00:32:44,295
lalu usaha kedua adalah pemaksaan.

591
00:32:44,379 --> 00:32:45,880
<i>Perkenalkan, ini Kitchen Safe,</i>

592
00:32:45,964 --> 00:32:49,801
<i>Kitchen Safe adalah</i>
<i>wadah berpengunci waktu revolusioner baru</i>

593
00:32:49,884 --> 00:32:51,678
<i>yang membantu Anda melawan godaan.</i>

594
00:32:51,761 --> 00:32:56,724
<i>David hanya perlu memasukkan godaan itu</i>
<i>ke Kitchen Safe.</i>

595
00:32:57,392 --> 00:33:00,603
<i>Selanjutnya, dia memutar tombol</i>
<i>untuk mengatur waktunya</i>

596
00:33:01,479 --> 00:33:04,232
<i>dan akhirnya, dia menekan tombol</i>
<i>untuk mengaktifkan kuncinya.</i>

597
00:33:04,315 --> 00:33:05,525
<i>Kitchen Safe ini bagus...</i>

598
00:33:05,608 --> 00:33:06,693
Kita punya itu, bukan?

599
00:33:06,776 --> 00:33:08,569
<i>...gim video, kartu kredit, dan ponsel.</i>

600
00:33:08,653 --> 00:33:09,654
Ya, benar.

601
00:33:09,779 --> 00:33:11,114
<i>Begitu Kitchen Safe terkunci,</i>

602
00:33:11,197 --> 00:33:13,908
<i>ini tak bisa dibuka</i>
<i>sampai waktunya mencapai nol.</i>

603
00:33:13,992 --> 00:33:17,537
Jadi, ini masalahnya.
Media sosial adalah narkoba.

604
00:33:17,620 --> 00:33:20,873
Maksudku,
kita punya perintah biologis dasar

605
00:33:20,957 --> 00:33:23,084
untuk terhubung dengan orang lain.

606
00:33:23,167 --> 00:33:25,253
Itu secara langsung memengaruhi

607
00:33:25,378 --> 00:33:28,214
pelepasan dopamin
dalam "jalur kenikmatan".

608
00:33:28,297 --> 00:33:32,510
Jutaan tahun evolusi berada
di balik sistem itu

609
00:33:32,593 --> 00:33:35,596
untuk membuat kita berkumpul
dan hidup di komunitas,

610
00:33:35,680 --> 00:33:38,016
mencari pasangan,
dan menyebarkan spesies kita.

611
00:33:38,099 --> 00:33:41,853
Jadi, tak diragukan lagi medium
seperti media sosial

612
00:33:41,936 --> 00:33:45,690
yang mengoptimalkan
hubungan antarorang ini

613
00:33:45,773 --> 00:33:48,568
akan memiliki potensi kecanduan.

614
00:33:52,739 --> 00:33:54,115
Ayah, hentikan!

615
00:33:55,450 --> 00:33:58,453
Aku harus mengirim seribu Snip lagi
sebelum makan malam.

616
00:33:58,536 --> 00:33:59,537
Snip?

617
00:33:59,620 --> 00:34:01,080
Aku tak tahu apa itu Snip.

618
00:34:01,164 --> 00:34:03,207
- Aromanya enak, Sayang.
- Terima kasih.

619
00:34:03,291 --> 00:34:07,712
Kupikir kita butuh kelima indra
untuk menikmati makan malam kita.

620
00:34:07,795 --> 00:34:11,382
Jadi, kuputuskan tak boleh ada ponsel
di meja malam ini.

621
00:34:11,466 --> 00:34:13,301
Jadi, serahkan kepadaku.

622
00:34:13,801 --> 00:34:14,802
- Sungguh?
- Ya.

623
00:34:15,928 --> 00:34:18,056
- Baiklah.
- Terima kasih. Ben?

624
00:34:18,139 --> 00:34:19,891
- Baik.
- Ibu, si perompak ponsel.

625
00:34:21,100 --> 00:34:21,934
- Dapat.
- Ibu!

626
00:34:22,602 --> 00:34:26,147
Jadi, mereka akan aman di sini
sampai makan malam usai...

627
00:34:27,273 --> 00:34:31,277
dan semua bisa bersantai. Paham?

628
00:34:47,418 --> 00:34:49,253
- Boleh kulihat dari siapa itu?
- Tidak.

629
00:34:54,759 --> 00:34:56,969
Aku akan mengambil garpu lagi.

630
00:34:58,304 --> 00:34:59,263
Terima kasih.

631
00:35:04,727 --> 00:35:06,729
Sayang, kau tak bisa membukanya.

632
00:35:06,813 --> 00:35:08,856
Aku menguncinya satu jam,
jadi, biarkan saja.

633
00:35:11,317 --> 00:35:13,361
Jadi, apa yang harus kita bahas?

634
00:35:13,444 --> 00:35:15,613
Kita bisa membahas

635
00:35:15,696 --> 00:35:17,824
orang gila Extreme Center
yang kuantar hari ini.

636
00:35:17,907 --> 00:35:18,825
Tolong, Frank.

637
00:35:18,908 --> 00:35:22,120
- Aku tak mau membahas politik.
- Ada apa dengan Extreme Center?

638
00:35:22,203 --> 00:35:24,622
- Dia bahkan tak paham.
- Tergantung menanyai siapa.

639
00:35:24,705 --> 00:35:26,624
Bagai bertanya, "Apa salahnya propaganda?"

640
00:35:28,918 --> 00:35:29,919
Isla!

641
00:35:32,797 --> 00:35:33,756
Astaga.

642
00:35:37,135 --> 00:35:38,553
- Kau mau aku...
- Ya.

643
00:35:41,973 --> 00:35:43,933
<i>Aku mencemaskan anak-anakku.</i>

644
00:35:44,016 --> 00:35:46,686
<i>Jika kau punya anak,</i>
<i>aku mencemaskan anak-anakmu.</i>

645
00:35:46,769 --> 00:35:50,189
Dengan semua pengetahuan
dan pengalaman yang kupunya,

646
00:35:50,273 --> 00:35:52,108
aku mendebat anak-anakku soal waktu

647
00:35:52,191 --> 00:35:54,443
yang mereka habiskan pada ponsel
dan komputer.

648
00:35:54,694 --> 00:35:56,070
Kuberi tahu putraku,

649
00:35:56,154 --> 00:35:58,197
"Berapa jam yang kau habiskan
pada ponselmu?"

650
00:35:58,281 --> 00:36:01,075
Dia akan bilang, "Maksimal setengah jam."

651
00:36:01,159 --> 00:36:04,829
Kurasa lebih dari 60-90 menit.

652
00:36:04,912 --> 00:36:06,789
Kulihat statistiknya beberapa minggu lalu

653
00:36:06,873 --> 00:36:08,708
- dan itu tiga jam, 45 menit.
- Itu...

654
00:36:11,252 --> 00:36:13,588
Kurasa itu tidak... Rata-rata per hari?

655
00:36:13,671 --> 00:36:15,506
- Ya.
- Mau kuambil sekarang?

656
00:36:15,590 --> 00:36:19,177
Setiap hari, aku mengingatkan anak-anakku

657
00:36:19,260 --> 00:36:21,762
tentang keseimbangan rasa suka dan duka,

658
00:36:21,846 --> 00:36:26,267
kondisi kekurangan dopamin,
dan risiko kecanduan.

659
00:36:26,350 --> 00:36:27,310
Momen penentuan.

660
00:36:27,935 --> 00:36:29,687
Dua jam, 50 menit per hari.

661
00:36:29,770 --> 00:36:31,772
- Coba lihat.
- Kugunakan lama hari ini.

662
00:36:31,856 --> 00:36:33,316
- Tujuh hari ini.
- Itu sebabnya.

663
00:36:33,399 --> 00:36:37,236
Instagram, enam jam, 13 menit.
Jadi, Instagram-ku lebih buruk.

664
00:36:39,572 --> 00:36:43,201
Layarku hancur. Terima kasih, Cass.

665
00:36:44,410 --> 00:36:45,995
Apa maksudmu, "Terima kasih, Cass"?

666
00:36:46,078 --> 00:36:49,290
Kau terus membuat Ibu takut
soal ponsel kita padahal bukan masalah.

667
00:36:49,373 --> 00:36:51,167
Tak butuh ponsel untuk makan malam.

668
00:36:51,250 --> 00:36:53,878
Aku paham maksudmu,
tapi ini bukan masalah besar.

669
00:36:56,047 --> 00:36:58,382
Jika begitu,
coba jangan gunakan selama seminggu.

670
00:37:01,135 --> 00:37:02,178
Ya.

671
00:37:02,261 --> 00:37:06,349
Ya, jika kau bisa menjauhinya
selama seminggu...

672
00:37:07,725 --> 00:37:09,518
akan kubelikan kau layar baru.

673
00:37:11,020 --> 00:37:12,772
- Mulai sekarang?
- Benar.

674
00:37:15,274 --> 00:37:16,859
Baiklah. Setuju.

675
00:37:16,943 --> 00:37:19,111
Namun, kau harus tinggalkan itu di sini,
Kawan.

676
00:37:19,862 --> 00:37:21,405
Baiklah, aku akan mengecasnya.

677
00:37:22,531 --> 00:37:25,076
Mulai saat ini, aku akan menjauh.

678
00:37:25,159 --> 00:37:25,993
Baiklah.

679
00:37:27,703 --> 00:37:29,413
- Waktumu dimulai.
- Satu minggu.

680
00:37:29,497 --> 00:37:30,331
Astaga...

681
00:37:31,457 --> 00:37:32,416
Kau pikir dia bisa?

682
00:37:33,000 --> 00:37:34,543
Entahlah, kita lihat saja.

683
00:37:35,002 --> 00:37:36,128
Makanlah saja, ya?

684
00:37:44,220 --> 00:37:45,680
Makan malam keluarga yang bagus!

685
00:37:47,682 --> 00:37:49,809
<i>Produk teknologi ini tak dirancang</i>

686
00:37:49,892 --> 00:37:53,896
oleh psikolog anak yang berusaha
melindungi dan mengasuh anak.

687
00:37:53,980 --> 00:37:56,148
Namun, hanya didesain
untuk membuat algoritme

688
00:37:56,232 --> 00:37:58,734
yang mahir merekomendasikan
video berikutnya untuk kita

689
00:37:58,818 --> 00:38:02,321
atau membuat kita bisa berfoto
dengan efek.

690
00:38:03,072 --> 00:38:05,324
DUA SUKA

691
00:38:13,291 --> 00:38:15,126
YAKIN INGIN MENGHAPUS?
TIDAK

692
00:38:15,209 --> 00:38:16,210
YA

693
00:38:16,711 --> 00:38:20,256
<i>Itu bukan hanya mengendalikan</i>
<i>tujuan perhatian mereka.</i>

694
00:38:21,173 --> 00:38:26,304
<i>Media sosial mulai terus menggali</i>
<i>lebih dalam ke batang otak,</i>

695
00:38:26,387 --> 00:38:29,765
<i>mengambil alih harga diri</i>
<i>dan identitas anak.</i>

696
00:38:29,849 --> 00:38:31,851
PERCANTIK AKU

697
00:38:42,069 --> 00:38:43,112
LILY_T
MANIS!

698
00:38:43,195 --> 00:38:44,822
SOPHIA_M
ASTAGA, CANTIK SEKALI

699
00:38:44,905 --> 00:38:46,490
OLIVIA_B
KAU MENGAGUMKAN

700
00:38:46,574 --> 00:38:49,118
AVA_R
BISA PERBESAR TELINGAMU?

701
00:38:52,496 --> 00:38:56,459
<i>Kita berevolusi untuk peduli</i>
<i>apakah orang lain di suku kita</i>

702
00:38:56,751 --> 00:38:59,128
<i>memandang kita baik atau tidak</i>
<i>karena itu penting.</i>

703
00:38:59,837 --> 00:39:04,550
Namun, apa kita berevolusi untuk menyadari
pendapat 10.000 orang tentang kita?

704
00:39:04,633 --> 00:39:05,885
Kita tak berevolusi

705
00:39:05,968 --> 00:39:10,348
untuk menerima persetujuan sosial
setiap lima menit.

706
00:39:10,431 --> 00:39:13,392
Kita sama sekali tak dirancang
untuk mengalami itu.

707
00:39:15,394 --> 00:39:19,982
<i>Kita menyesuaikan hidup kita</i>
<i>mengikuti pandangan kesempurnaan ini</i>

708
00:39:20,733 --> 00:39:23,527
<i>karena kita mendapat imbalan</i>
<i>dalam sinyal jangka pendek ini,</i>

709
00:39:23,611 --> 00:39:25,154
<i>ikon hati, suka, dan jempol.</i>

710
00:39:25,237 --> 00:39:28,407
Lalu kita menyatukannya dengan nilai
dan kebenaran.

711
00:39:29,825 --> 00:39:33,329
Alih-alih sebagai hal yang sebenarnya,
yaitu popularitas palsu dan rapuh...

712
00:39:33,913 --> 00:39:37,458
yang hanya sesaat, membuat kita kecanduan,
dan akuilah,

713
00:39:37,541 --> 00:39:39,919
membuat kita hampa sebelum melakukannya.

714
00:39:41,253 --> 00:39:43,381
Karena itu memaksa kita
memasuki lingkaran ganas

715
00:39:43,464 --> 00:39:45,800
yang membuat kita bilang,
"Aku harus apa berikutnya?

716
00:39:45,883 --> 00:39:47,343
Karena aku butuh itu."

717
00:39:48,260 --> 00:39:50,846
Bayangkan itu dilakukan
oleh dua miliar orang lainnya

718
00:39:50,930 --> 00:39:54,767
lalu bayangkan reaksi orang
terhadap persepsi orang lain.

719
00:39:54,850 --> 00:39:56,435
Itu sangat buruk.

720
00:39:56,977 --> 00:39:58,312
Itu benar-benar buruk.

721
00:40:00,856 --> 00:40:05,069
<i>Ada peningkatan besar dalam depresi</i>
<i>dan kecemasan</i>

722
00:40:05,152 --> 00:40:06,529
<i>bagi remaja Amerika</i>

723
00:40:06,612 --> 00:40:10,950
yang dimulai antara tahun 2011 dan 2013.

724
00:40:11,033 --> 00:40:15,371
Jumlah gadis remaja
dari 100.000 gadis di negara ini

725
00:40:15,454 --> 00:40:19,917
yang dirawat di rumah sakit setiap tahun
karena menyayat atau melukai diri sendiri,

726
00:40:20,000 --> 00:40:23,921
angka itu cukup stabil
sampai sekitar tahun 2010-2011,

727
00:40:24,004 --> 00:40:25,756
lalu mulai naik pesat.

728
00:40:28,717 --> 00:40:32,263
Naik 62 persen
untuk gadis remaja lebih tua.

729
00:40:32,346 --> 00:40:33,931
RAWAT INAP UNTUK LUKA DIRI NONFATAL

730
00:40:34,014 --> 00:40:38,602
Naik 189 persen untuk gadis praremaja.
Itu hampir tiga kali lipat.

731
00:40:40,354 --> 00:40:43,107
Lebih mengerikan lagi,
bunuh diri alami tren yang sama.

732
00:40:43,190 --> 00:40:44,900
TINGKAT BUNUH DIRI AS
PER SEJUTA GADIS

733
00:40:44,984 --> 00:40:47,570
Gadis remaja lebih tua,
usia 15 sampai 19 tahun,

734
00:40:47,653 --> 00:40:51,449
mereka naik 70% dibandingkan
dekade pertama abad ini.

735
00:40:52,158 --> 00:40:55,077
Para gadis praremaja,
yang punya tingkat awal sangat rendah,

736
00:40:55,161 --> 00:40:57,663
mereka naik 151 persen.

737
00:40:58,831 --> 00:41:01,709
Lalu pola itu mengarah ke media sosial.

738
00:41:01,792 --> 00:41:03,961
MEDIA SOSIAL TERSEDIA DI PONSEL
2009

739
00:41:04,044 --> 00:41:07,214
Generasi Z,
anak-anak yang lahir usai tahun 1996,

740
00:41:07,298 --> 00:41:10,342
mereka adalah generasi pertama
dalam sejarah

741
00:41:10,426 --> 00:41:12,636
yang terjun ke media sosial
di sekolah menengah.

742
00:41:15,973 --> 00:41:17,683
<i>Bagaimana mereka menghabiskan waktu?</i>

743
00:41:19,727 --> 00:41:22,480
<i>Mereka pulang dari sekolah</i>
<i>dan memakai gawai mereka.</i>

744
00:41:24,315 --> 00:41:29,195
<i>Seluruh generasi ini lebih cemas, rapuh,</i>
<i>dan tertekan.</i>

745
00:41:30,613 --> 00:41:33,282
<i>Mereka kurang nyaman mengambil risiko.</i>

746
00:41:34,325 --> 00:41:37,536
<i>Tingkat permohonan SIM mereka menurun.</i>

747
00:41:38,954 --> 00:41:41,081
<i>Jumlah orang yang pernah berkencan</i>

748
00:41:41,165 --> 00:41:44,251
<i>atau memiliki hubungan romantis</i>
<i>menurun drastis.</i>

749
00:41:47,505 --> 00:41:49,882
<i>Ini perubahan nyata dalam satu generasi.</i>

750
00:41:53,177 --> 00:41:57,306
<i>Ingatlah, untuk semua kasus ini,</i>
<i>setiap perawatan di rumah sakit,</i>

751
00:41:57,389 --> 00:42:00,267
<i>ada keluarga yang merasa trauma dan ngeri.</i>

752
00:42:00,351 --> 00:42:02,561
<i>"Astaga, apa yang terjadi</i>
<i>kepada anak-anak kita?"</i>

753
00:42:19,411 --> 00:42:21,038
<i>Ini sangat jelas bagiku.</i>

754
00:42:22,873 --> 00:42:28,128
Layanan ini membunuh orang
dan menyebabkan orang bunuh diri.

755
00:42:29,088 --> 00:42:33,300
Aku tak mengenal orang tua yang bilang,
"Ya, aku ingin anak-anakku tumbuh dewasa

756
00:42:33,384 --> 00:42:35,135
dengan merasa dimanipulasi

757
00:42:35,678 --> 00:42:36,887
oleh desainer teknologi.

758
00:42:36,971 --> 00:42:39,723
Memanipulasi perhatian
dan menjadikan PR mustahil dikerjakan,

759
00:42:39,807 --> 00:42:42,560
membuat mereka mengikuti
standar kecantikan tak realistis."

760
00:42:42,643 --> 00:42:44,687
Tak ada yang mau itu.

761
00:42:45,104 --> 00:42:46,355
Tak ada yang mau.

762
00:42:46,438 --> 00:42:48,482
Dulu kita punya perlindungan.

763
00:42:48,566 --> 00:42:52,778
Saat anak-anak menonton kartun Sabtu pagi,
kita peduli soal melindungi anak-anak.

764
00:42:52,861 --> 00:42:56,574
Kita bilang, "Kau tak bisa beriklan
kepada anak usia ini dengan cara ini."

765
00:42:57,366 --> 00:42:58,784
Namun, muncul YouTube Kids

766
00:42:58,867 --> 00:43:02,454
yang menghapus
seluruh jual-beli perhatian ini

767
00:43:02,538 --> 00:43:04,915
dan kini semua anak terpapar YouTube Kids.

768
00:43:04,999 --> 00:43:07,668
Semua perlindungan
dan peraturan itu hilang.

769
00:43:10,296 --> 00:43:17,261
WAKTU TANPA PONSEL

770
00:43:18,304 --> 00:43:22,141
<i>Kita melatih dan mengondisikan</i>
<i>satu generasi orang baru...</i>

771
00:43:23,434 --> 00:43:29,148
<i>agar ketika kita tak nyaman, kesepian,</i>
<i>merasa tak pasti, atau takut,</i>

772
00:43:29,231 --> 00:43:31,775
kita punya penenang digital sendiri

773
00:43:32,526 --> 00:43:36,488
<i>yang menghentikan kemampuan kita</i>
<i>untuk menghadapinya.</i>

774
00:43:53,964 --> 00:43:56,884
Photoshop tak punya ribuan teknisi
di sisi lain layar

775
00:43:56,967 --> 00:43:59,011
yang menggunakan notifikasi,
teman-teman kita,

776
00:43:59,094 --> 00:44:02,431
dan IA untuk memprediksi
apa yang akan membuat kita kecanduan,

777
00:44:02,514 --> 00:44:04,516
memanipulasi kita,
atau mengizinkan pengiklan

778
00:44:04,600 --> 00:44:07,853
menguji 60.000 variasi teks atau warna

779
00:44:07,936 --> 00:44:11,065
untuk tahu cara memanipulasi pikiran kita
dengan sempurna.

780
00:44:11,148 --> 00:44:14,985
Ini jenis kekuasaan dan pengaruh baru.

781
00:44:16,070 --> 00:44:19,156
Sekali lagi kukatakan,
metode yang digunakan

782
00:44:19,239 --> 00:44:22,826
untuk mempermainkan kemampuan orang
untuk kecanduan atau dipengaruhi

783
00:44:22,910 --> 00:44:25,204
mungkin berbeda kali ini
dan mungkin memang begitu.

784
00:44:25,287 --> 00:44:28,749
Mereka berbeda saat koran muncul
dan mesin cetak muncul.

785
00:44:28,832 --> 00:44:31,835
Mereka berbeda saat televisi muncul

786
00:44:31,919 --> 00:44:34,004
lalu muncul tiga jaringan besar dan...

787
00:44:34,463 --> 00:44:36,423
- Saat itu.
- Saat itu, itu maksudku.

788
00:44:36,507 --> 00:44:38,384
Namun, maksudku, ada sebuah tingkat baru

789
00:44:38,467 --> 00:44:42,054
dan tingkat baru itu sudah sering terjadi.

790
00:44:42,137 --> 00:44:45,099
Ini tingkat baru terkini yang kita lihat.

791
00:44:45,391 --> 00:44:48,727
Ada narasi yang berkata,
"Kita beradaptasi saja atas itu.

792
00:44:48,811 --> 00:44:51,188
Kita akan belajar hidup
dengan perangkat ini

793
00:44:51,271 --> 00:44:53,732
seperti belajar hidup dengan yang lain."

794
00:44:53,816 --> 00:44:56,694
Yang luput di sini adalah
ada hal baru di sini.

795
00:44:57,569 --> 00:45:00,322
Mungkin hal paling berbahaya
dari semua ini adalah fakta

796
00:45:00,406 --> 00:45:04,410
bahwa itu didorong oleh teknologi
yang maju dengan sangat pesat.

797
00:45:05,953 --> 00:45:09,081
Kurang lebih,
dari tahun 1960-an hingga saat ini,

798
00:45:09,873 --> 00:45:13,085
kekuatan memproses meningkat
sekitar satu triliun kali.

799
00:45:13,794 --> 00:45:18,340
Tak ada hal yang kita punya
yang laju kenaikannya mendekati itu.

800
00:45:18,424 --> 00:45:22,177
Misalnya, mobil kira-kira hanya naik
dua kali lebih cepat.

801
00:45:22,261 --> 00:45:25,264
Lalu hampir semua yang lainnya
bisa diabaikan.

802
00:45:25,347 --> 00:45:27,182
Mungkin yang terpenting,

803
00:45:27,266 --> 00:45:31,353
sifat manusia, fisiologi, dan otak kita
tak berevolusi sama sekali.

804
00:45:31,854 --> 00:45:35,232
WAKTU TANPA PONSEL

805
00:45:37,401 --> 00:45:41,488
<i>Level pikiran, raga, dan fisik manusia</i>

806
00:45:41,947 --> 00:45:43,907
<i>takkan berubah secara mendasar.</i>

807
00:45:56,837 --> 00:45:58,172
<i>Kita bisa melakukan</i>

808
00:45:58,255 --> 00:46:01,091
<i>rekayasa genetika dan mengembangkan</i>
<i>manusia baru di masa depan,</i>

809
00:46:01,175 --> 00:46:05,220
tapi secara realistis,
kita hidup di dalam perangkat keras, otak,

810
00:46:05,304 --> 00:46:07,222
yang berusia jutaan tahun,

811
00:46:07,306 --> 00:46:10,559
lalu ada sebuah layar dan di baliknya,

812
00:46:10,642 --> 00:46:13,562
ada ribuan teknisi dan komputer super

813
00:46:13,645 --> 00:46:16,106
yang punya tujuan berbeda
dari tujuan kita.

814
00:46:16,190 --> 00:46:19,693
Jadi, siapa yang akan menang
dalam hal itu?

815
00:46:25,699 --> 00:46:26,950
Bagaimana kita bisa kalah?

816
00:46:27,159 --> 00:46:29,703
- Entahlah.
- Di mana dia? Ini tidak normal.

817
00:46:29,787 --> 00:46:32,164
Apa aku mencecarnya
dengan konten teman dan keluarga?

818
00:46:32,247 --> 00:46:34,082
- Mungkin.
- Mungkin karena iklannya.

819
00:46:34,166 --> 00:46:37,795
Tidak. Ada yang salah.
Mari beralih ke mode kebangkitan.

820
00:46:39,671 --> 00:46:44,051
<i>Saat memikirkan IA,</i>
<i>kita pikir itu akan merusak dunia.</i>

821
00:46:44,134 --> 00:46:47,221
Anda membayangkan Terminator,
Arnold Schwarzenegger.

822
00:46:47,638 --> 00:46:48,680
Aku akan kembali.

823
00:46:48,806 --> 00:46:52,643
<i>Kita membayangkan pesawat nirawak</i>
<i>dan berpikir, "IA akan membunuh orang." </i>

824
00:46:53,644 --> 00:46:59,817
Yang orang lupa adalah
IA sudah mengendalikan dunia saat ini.

825
00:46:59,900 --> 00:47:03,237
Bahkan membicarakan "IA"
hanyalah sebuah metafora.

826
00:47:03,320 --> 00:47:09,451
Di perusahaan seperti Google,
ada banyak ruangan yang sangat besar.

827
00:47:10,327 --> 00:47:13,121
Sebagian ada di bawah tanah,
sebagian lagi ada di bawah air,

828
00:47:13,205 --> 00:47:14,498
yang hanya berisi komputer.

829
00:47:14,581 --> 00:47:17,835
Begitu banyak komputer
sejauh mata memandang.

830
00:47:18,460 --> 00:47:20,504
Mereka sangat saling terhubung

831
00:47:20,587 --> 00:47:22,923
dan menjalankan program yang sangat rumit,

832
00:47:23,006 --> 00:47:26,009
saling mengirim informasi bolak-balik
sepanjang waktu.

833
00:47:26,802 --> 00:47:28,595
Mereka menjalankan beragam program

834
00:47:28,679 --> 00:47:30,806
dan produk pada mesin yang sama.

835
00:47:31,348 --> 00:47:33,684
Sebagiannya adalah algoritme sederhana

836
00:47:33,767 --> 00:47:35,227
dan sebagian lagi algoritme

837
00:47:35,310 --> 00:47:37,521
yang sangat rumit
hingga disebut kecerdasan.

838
00:47:40,148 --> 00:47:43,777
<i>Menurutku, algoritme adalah opini</i>
<i>yang disematkan dalam kode...</i>

839
00:47:45,070 --> 00:47:47,656
dan algoritme itu tidak objektif.

840
00:47:48,365 --> 00:47:51,577
Algoritme dioptimalkan
ke sebuah definisi kesuksesan.

841
00:47:52,244 --> 00:47:53,370
Jadi, bisa dibayangkan

842
00:47:53,453 --> 00:47:57,124
jika perusahaan komersial membuat
sebuah algoritme

843
00:47:57,207 --> 00:47:59,293
untuk definisi kesuksesan bagi mereka,

844
00:47:59,835 --> 00:48:01,378
itu kepentingan komersial.

845
00:48:01,587 --> 00:48:02,671
Biasanya profit.

846
00:48:03,130 --> 00:48:07,384
Kita memberi komputer tujuan,
"Aku ingin hasil ini,"

847
00:48:07,467 --> 00:48:10,262
lalu komputer itu sendiri
belajar melakukannya.

848
00:48:10,345 --> 00:48:12,598
Itulah asal istilah "pemelajaran mesin".

849
00:48:12,681 --> 00:48:14,892
Jadi, setiap hari,
ia menjadi sedikit lebih baik

850
00:48:14,975 --> 00:48:16,894
dalam memilih pos dalam urutan yang tepat

851
00:48:16,977 --> 00:48:19,438
agar kita bisa lebih lama
menggunakan produk itu.

852
00:48:19,521 --> 00:48:22,232
Tak ada yang paham apa yang mereka lakukan

853
00:48:22,316 --> 00:48:23,901
untuk mencapai tujuan itu.

854
00:48:23,984 --> 00:48:28,238
Algoritme itu punya pikiran sendiri,
jadi, meski seseorang menulisnya,

855
00:48:28,906 --> 00:48:30,657
itu ditulis sedemikian rupa

856
00:48:30,741 --> 00:48:35,037
agar setelah kita membuat mesinnya,
mesinnya akan berubah sendiri.

857
00:48:35,120 --> 00:48:37,915
Hanya ada sedikit orang
di semua perusahaan ini,

858
00:48:37,998 --> 00:48:40,000
Facebook, Twitter, dan perusahaan lain...

859
00:48:40,083 --> 00:48:43,795
Hanya sedikit orang yang mengerti
cara kerja sistem itu

860
00:48:43,879 --> 00:48:46,715
dan bahkan mereka tak sepenuhnya mengerti

861
00:48:46,798 --> 00:48:49,551
apa yang akan terjadi
dengan konten tertentu.

862
00:48:49,968 --> 00:48:53,472
Jadi, sebagai manusia,
kita hampir kehilangan kendali

863
00:48:53,555 --> 00:48:55,474
atas sistem ini

864
00:48:55,891 --> 00:48:59,603
karena mereka mengendalikan
informasi yang kita lihat.

865
00:48:59,686 --> 00:49:02,439
Mereka mengendalikan kita
melebihi kita mengendalikan mereka.

866
00:49:03,815 --> 00:49:07,319
Merujuk silang dia dengan yang serupa
di zona geografisnya.

867
00:49:07,402 --> 00:49:09,571
Kembaran psikometrinya.

868
00:49:09,655 --> 00:49:13,700
Ada 13.694 orang yang berperilaku
sepertinya di wilayahnya.

869
00:49:13,784 --> 00:49:16,370
- Apa yang mereka minati?
- Kita butuh hal yang bagus

870
00:49:16,453 --> 00:49:19,957
untuk kebangkitan yang layak,
mengingat hal-hal biasa tak berhasil.

871
00:49:20,040 --> 00:49:22,042
Bahkan gadis manis
di sekolah itu pun tidak.

872
00:49:22,334 --> 00:49:25,253
Menurut analisisku,
menampilkan konten politik Extreme Center

873
00:49:25,337 --> 00:49:28,256
punya potensi keterlibatan jangka panjang
sebesar 62,3%.

874
00:49:28,340 --> 00:49:29,299
Itu tidak buruk.

875
00:49:30,342 --> 00:49:32,010
Namun, bukan awal yang cukup bagus.

876
00:49:32,386 --> 00:49:35,305
Baiklah. Jadi, kita sudah memberitahunya
soal foto yang ditandai,

877
00:49:35,389 --> 00:49:39,017
undangan, peristiwa terkini,
bahkan pesan langsung dari Rebecca.

878
00:49:39,101 --> 00:49:42,771
Bagaimana dengan pengguna 01265923010?

879
00:49:42,854 --> 00:49:44,648
Ya, Ben memberi ikon hati semua posnya.

880
00:49:44,731 --> 00:49:47,776
Semua posnya, selama berbulan-bulan,
lalu berhenti.

881
00:49:47,859 --> 00:49:50,445
Aku menghitung
kemungkinan kebangkitan 92,3 persen

882
00:49:50,529 --> 00:49:52,155
dengan notifikasi soal Ana.

883
00:49:53,907 --> 00:49:55,993
HUBUNGAN BARU

884
00:49:56,535 --> 00:49:57,744
Serta teman barunya.

885
00:49:58,495 --> 00:50:04,001
WAKTU TANPA PONSEL

886
00:50:24,354 --> 00:50:25,981
MANTAN PACARMU PUNYA HUBUNGAN BARU!

887
00:50:26,064 --> 00:50:27,315
Ini pasti bercanda.

888
00:50:35,657 --> 00:50:36,616
Baiklah.

889
00:50:37,576 --> 00:50:38,785
ANA DAN LUIZ BERHUBUNGAN

890
00:50:38,869 --> 00:50:39,703
Apa?

891
00:50:42,122 --> 00:50:44,207
- Kita kembali!
- Ayo menghasilkan uang lagi.

892
00:50:44,291 --> 00:50:46,334
Ya, dan hubungkan mereka
dengan seluruh dunia.

893
00:50:46,418 --> 00:50:49,337
Aku memberinya akses
ke semua informasi yang mungkin dia suka.

894
00:50:49,755 --> 00:50:53,717
Hei, apa kalian pernah berpikir
umpan beritanya bagus untuk Ben?

895
00:50:57,220 --> 00:50:58,221
- Tidak.
- Tidak.

896
00:51:42,349 --> 00:51:44,893
PENGUJIAN A/B
EXTREME CENTRE

897
00:52:20,929 --> 00:52:24,349
<i>Jadi, bayangkan kita membuka Facebook...</i>

898
00:52:24,975 --> 00:52:29,312
dan kita bermain melawan
inteligensi artifisial ini

899
00:52:29,396 --> 00:52:31,314
yang tahu semuanya soal kita.

900
00:52:31,398 --> 00:52:34,568
Mengantisipasi langkah kita berikutnya
dan kita tak tahu apa-apa

901
00:52:34,651 --> 00:52:37,404
kecuali video kucing dan ulang tahun
yang diputar.

902
00:52:37,821 --> 00:52:39,656
Pertarungan itu tak adil!

903
00:52:41,575 --> 00:52:43,869
Ben dan Jerry, saatnya berangkat!

904
00:52:51,126 --> 00:52:51,960
Ben?

905
00:53:02,679 --> 00:53:03,513
Ben.

906
00:53:05,182 --> 00:53:06,057
Ayo.

907
00:53:07,225 --> 00:53:08,894
Waktunya sekolah. Ayo.

908
00:53:31,374 --> 00:53:33,543
- Apa kabarmu hari ini?
- Aku gugup.

909
00:53:33,627 --> 00:53:34,628
- Benarkah?
- Ya.

910
00:53:37,380 --> 00:53:39,049
Kita semua mewaspadai saat

911
00:53:39,132 --> 00:53:42,969
ketika teknologi akan mengalahkan kekuatan
dan kecerdasan manusia.

912
00:53:43,136 --> 00:53:44,846
Kapan itu akan melampaui hal itu,

913
00:53:44,930 --> 00:53:47,015
merebut profesi,
dan lebih pintar dari manusia?

914
00:53:48,141 --> 00:53:50,101
Namun, ada momen lebih awal...

915
00:53:50,977 --> 00:53:55,565
saat teknologi melampaui
dan mengalahkan kelemahan manusia.

916
00:53:57,484 --> 00:54:02,030
Batasan-batasan yang dilampaui ini
berakar pada kecanduan,

917
00:54:02,113 --> 00:54:03,657
polarisasi, radikalisasi,

918
00:54:03,740 --> 00:54:06,368
memicu kemarahan, keangkuhan, semuanya.

919
00:54:07,702 --> 00:54:09,913
Ini mengalahkan sifat manusia

920
00:54:10,705 --> 00:54:13,500
dan sekakmat bagi kemanusiaan.

921
00:54:30,558 --> 00:54:31,434
Maaf.

922
00:54:41,736 --> 00:54:44,656
<i>Salah satu cara yang kucoba</i>
<i>untuk membuat orang paham</i>

923
00:54:45,198 --> 00:54:49,786
betapa salahnya umpan berita
dari tempat seperti Facebook

924
00:54:49,869 --> 00:54:51,454
adalah dengan memikirkan Wikipedia.

925
00:54:51,538 --> 00:54:52,872
<i>TAB</i> BARU

926
00:54:52,956 --> 00:54:56,418
Saat kunjungi sebuah laman, kita melihat
hal yang sama dengan orang lain.

927
00:54:56,626 --> 00:55:00,297
Itu satu dari beberapa hal di internet
yang setidaknya menjadi kesamaan kita.

928
00:55:00,380 --> 00:55:03,425
Kini bayangkan sejenak Wikipedia berkata,

929
00:55:03,508 --> 00:55:07,178
"Kita akan memberi tiap orang
definisi yang khusus dan berbeda

930
00:55:07,262 --> 00:55:09,472
dan kita akan dibayar orang untuk itu."

931
00:55:09,556 --> 00:55:13,435
Jadi, Wikipedia memata-matai kita
dan mempertimbangkan,

932
00:55:13,518 --> 00:55:17,188
"Apa yang bisa kulakukan
agar orang ini berubah sedikit

933
00:55:17,272 --> 00:55:19,899
demi kepentingan komersial?" Paham?

934
00:55:19,983 --> 00:55:21,818
Lalu entrinya akan diubah.

935
00:55:22,444 --> 00:55:23,570
Bisa bayangkan itu?

936
00:55:23,653 --> 00:55:26,698
Seharusnya bisa
karena itulah yang terjadi di Facebook.

937
00:55:26,781 --> 00:55:28,992
Itulah yang terjadi
di umpan berita YouTube kita.

938
00:55:29,159 --> 00:55:31,786
Saat kunjungi Google
dan mengetik "perubahan iklim adalah",

939
00:55:31,870 --> 00:55:34,998
kita akan melihat hasil berbeda
tergantung tempat tinggal.

940
00:55:35,081 --> 00:55:36,082
PERUBAHAN IKLIM ADALAH

941
00:55:36,166 --> 00:55:38,460
Di kota tertentu,
akan muncul isian kata otomatis

942
00:55:38,543 --> 00:55:40,462
bertuliskan "perubahan iklim itu hoaks."

943
00:55:40,545 --> 00:55:42,088
Dalam kasus lain, akan muncul

944
00:55:42,172 --> 00:55:44,841
"perubahan iklim menyebabkan
kerusakan alam."

945
00:55:44,924 --> 00:55:48,428
Itu bukan fungsi untuk tampikan kebenaran
soal perubahan iklim,

946
00:55:48,511 --> 00:55:51,097
tapi soal tempat kita
saat mencarinya di Google

947
00:55:51,181 --> 00:55:53,600
dan hal tertentu yang Google tahu
soal minat kita.

948
00:55:55,185 --> 00:55:58,021
Bahkan dua teman yang sangat dekat
sekalipun,

949
00:55:58,104 --> 00:56:00,190
yang punya teman yang hampir sama,

950
00:56:00,273 --> 00:56:02,817
<i>mereka berpikir,</i>
<i>"Akan kulihat umpan berita di Facebook.</i>

951
00:56:02,901 --> 00:56:06,738
<i>Aku akan melihat pembaruan yang sama."</i>
<i>Namun, tidak seperti itu.</i>

952
00:56:06,821 --> 00:56:08,448
<i>Mereka melihat dunia yang berbeda</i>

953
00:56:08,531 --> 00:56:12,035
<i>karena itu berdasarkan analisis komputer</i>
<i>soal apa yang ideal bagi mereka.</i>

954
00:56:12,118 --> 00:56:14,245
SEDANG MENGUDARA

955
00:56:14,329 --> 00:56:18,416
<i>Bisa dibilang</i>
<i>itu adalah 2,7 miliar </i>The Truman Show.

956
00:56:18,500 --> 00:56:21,294
Tiap orang punya realitas sendiri
dengan fakta...

957
00:56:22,670 --> 00:56:23,671
mereka sendiri.

958
00:56:23,755 --> 00:56:28,051
<i>Kenapa kau pikir</i>
<i>Truman tak pernah hampir mengetahui</i>

959
00:56:28,134 --> 00:56:30,095
<i>kebenaran soal dunianya hingga kini?</i>

960
00:56:31,054 --> 00:56:34,099
Kita menerima kenyataan dunia
yang diberikan kepada kita.

961
00:56:34,182 --> 00:56:35,141
Sesederhana itu.

962
00:56:35,225 --> 00:56:36,393
SEDANG MENGUDARA

963
00:56:36,476 --> 00:56:41,064
Seiring waktu, kita memiliki kesan palsu
bahwa semua orang setuju dengan kita

964
00:56:41,147 --> 00:56:44,067
karena semua orang di umpan berita
tampak seperti kita.

965
00:56:44,567 --> 00:56:49,072
Begitu kita dalam keadaan itu,
ternyata kita mudah dimanipulasi

966
00:56:49,155 --> 00:56:51,741
seperti dimanipulasi oleh pesulap.

967
00:56:51,825 --> 00:56:55,370
Pesulap menunjukkan trik kartu dan bilang,
"Pilih kartu apa saja."

968
00:56:55,453 --> 00:56:58,373
Yang tak kita sadari
adalah mereka sudah mengaturnya

969
00:56:58,456 --> 00:57:00,542
agar kita memilih kartu yang mereka mau.

970
00:57:00,625 --> 00:57:03,169
Begitulah Facebook bekerja.
Ia duduk di sana dan berkata,

971
00:57:03,253 --> 00:57:06,172
"Hei, kau yang memilih teman
dan tautan yang kau ikuti."

972
00:57:06,256 --> 00:57:08,716
Namun, itu omong kosong. Seperti pesulap.

973
00:57:08,800 --> 00:57:11,302
Facebook bertanggung jawab
atas umpan berita kita.

974
00:57:11,386 --> 00:57:14,514
Kita semua hanya menggunakan
fakta yang berbeda.

975
00:57:14,597 --> 00:57:16,474
Saat itu terjadi dalam skala besar,

976
00:57:16,558 --> 00:57:20,770
kita tak bisa lagi menghadapi
atau menyerap informasi

977
00:57:20,854 --> 00:57:23,690
yang bertentangan dengan pandangan dunia
yang kita ciptakan.

978
00:57:23,773 --> 00:57:28,027
Itu berarti kita bukan lagi individu
yang objektif dan konstruktif.

979
00:57:28,778 --> 00:57:32,449
Buka matamu! Jangan percaya kebohongan!

980
00:57:32,532 --> 00:57:35,160
<i>Lalu kita melihat ke sisi lain</i>

981
00:57:35,243 --> 00:57:38,746
<i>dan mulai berpikir,</i>
<i>"Bagaimana mereka bisa begitu bodoh?</i>

982
00:57:38,955 --> 00:57:42,125
Lihatlah semua informasi
yang terus kulihat ini.

983
00:57:42,208 --> 00:57:44,711
Kenapa mereka tak melihat info yang sama?"

984
00:57:44,794 --> 00:57:47,297
Jawabannya, "Mereka memang tak melihat
info yang sama."

985
00:57:47,380 --> 00:57:50,800
Buka matamu! Jangan percaya kebohongan!

986
00:57:52,093 --> 00:57:53,678
<i>Seperti apa Partai Republik?</i>

987
00:57:53,761 --> 00:57:55,472
Orang yang tak tahu apa-apa.

988
00:57:55,555 --> 00:57:58,933
Partai Demokrat adalah sindikat kejahatan,
bukan partai politik sungguhan.

989
00:57:59,017 --> 00:58:03,104
Studi besar baru dari Pew Research Center
terhadap 10.000 orang dewasa Amerika

990
00:58:03,188 --> 00:58:05,315
mendapati kita lebih terpecah
dari sebelumnya,

991
00:58:05,398 --> 00:58:09,068
dengan polarisasi pribadi dan politis
di level tertinggi pada 20 tahun terakhir.

992
00:58:09,152 --> 00:58:11,696
POLARISASI POLITIS AS
MEDIAN DEMOKRAT - MEDIAN REPUBLIK

993
00:58:11,779 --> 00:58:14,199
Ada lebih dari sepertiga Partai Republik
yang berkata

994
00:58:14,282 --> 00:58:16,826
Partai Demokrat
adalah ancaman bagi negara

995
00:58:16,910 --> 00:58:20,580
dan seperempat lebih Demokrat
berkata sama soal Partai Republik.

996
00:58:20,663 --> 00:58:24,417
Begitu banyak masalah yang kita bahas,
misalnya seputar polarisasi politik,

997
00:58:24,501 --> 00:58:28,046
ditampilkan secara besar-besaran
di TV kabel.

998
00:58:28,129 --> 00:58:31,007
Media punya masalah yang sama

999
00:58:31,090 --> 00:58:33,343
karena model bisnis mereka, pada umumnya,

1000
00:58:33,426 --> 00:58:35,762
adalah menjual perhatian kita
kepada pengiklan.

1001
00:58:35,845 --> 00:58:38,890
Internet adalah cara lebih efisien baru
untuk melakukan itu.

1002
00:58:40,391 --> 00:58:44,145
<i>Di YouTube, aku mengerjakan</i>
<i>rekomendasi YouTube.</i>

1003
00:58:44,229 --> 00:58:47,148
Aku khawatir algoritme yang kukerjakan

1004
00:58:47,232 --> 00:58:50,401
sebenarnya meningkatkan polarisasi
di masyarakat.

1005
00:58:50,485 --> 00:58:53,112
Namun, dari sudut pandang waktu menonton,

1006
00:58:53,196 --> 00:58:57,617
polarisasi ini sangat efisien
untuk membuat orang tetap daring.

1007
00:58:58,785 --> 00:59:02,288
<i>Alasan para guru mengajarkan hal ini</i>
<i>hanyalah karena mereka dibayar.</i>

1008
00:59:02,372 --> 00:59:04,332
<i>- Itu konyol sekali.</i>
- Hei, Benji.

1009
00:59:04,791 --> 00:59:06,459
Tak ada latihan sepak bola hari ini?

1010
00:59:06,543 --> 00:59:08,878
Ada. Aku hanya melihat berita
yang kulewatkan.

1011
00:59:08,962 --> 00:59:11,506
<i>Risetlah sendiri.</i>
<i>Info apa pun dari Extreme Center...</i>

1012
00:59:11,589 --> 00:59:14,008
Hal yang kau tonton itu bukan berita.

1013
00:59:15,552 --> 00:59:18,721
Kau selalu membahas betapa kacaunya
keadaan saat ini. Mereka juga.

1014
00:59:19,472 --> 00:59:21,140
Namun, itu hanya propaganda.

1015
00:59:21,224 --> 00:59:24,060
<i>Tak ada yang benar.</i>
<i>Intinya adalah apa yang masuk akal.</i>

1016
00:59:24,769 --> 00:59:26,938
Ben, aku serius. Itu buruk untukmu.

1017
00:59:27,021 --> 00:59:28,690
Sebainya kau berlatih sepak bola.

1018
00:59:35,154 --> 00:59:37,490
<i>Aku membagi ini karena aku peduli.</i>

1019
00:59:37,574 --> 00:59:41,077
<i>Aku peduli terhadap kalian yang disesatkan</i>
<i>dan itu tak baik. Paham?</i>

1020
00:59:41,160 --> 00:59:43,121
<i>Orang mengira algoritme ini dirancang</i>

1021
00:59:43,204 --> 00:59:46,833
<i>untuk memberikan yang mereka inginkan,</i>
<i>tapi ternyata tidak.</i>

1022
00:59:46,916 --> 00:59:52,589
Algoritme ini sebenarnya mencoba mencari
beberapa perangkap yang sangat kuat,

1023
00:59:52,672 --> 00:59:56,217
mencari perangkap mana
yang paling sesuai dengan minat kita.

1024
00:59:56,301 --> 00:59:59,512
Lalu jika kita mulai menonton
salah satu video itu,

1025
00:59:59,804 --> 01:00:02,223
itu akan merekomendasikannya
berulang kali.

1026
01:00:02,682 --> 01:00:04,934
Tak ada yang mau ini terjadi.

1027
01:00:05,018 --> 01:00:07,812
Hanya saja, inilah yang dilakukan
sistem rekomendasi.

1028
01:00:07,895 --> 01:00:10,815
Sampai-sampai Kyrie Irving,
pemain basket terkenal,

1029
01:00:11,482 --> 01:00:14,152
berkata dia percaya Bumi datar
yang meminta maaf kemudian

1030
01:00:14,235 --> 01:00:16,404
dan dia menyalahkan
video perangkap di YouTube.

1031
01:00:16,487 --> 01:00:18,656
Kau mengeklik YouTube

1032
01:00:18,740 --> 01:00:21,534
lalu kita masuk ke perangkap
yang sangat dalam.

1033
01:00:21,618 --> 01:00:23,328
Saat dia datang ke NPR untuk berkata,

1034
01:00:23,411 --> 01:00:25,955
"Maaf telah meyakini ini.
Aku tak mau menyesatkan orang,"

1035
01:00:26,039 --> 01:00:28,333
sekelompok siswa di kelas
yang diwawancarai bilang,

1036
01:00:28,416 --> 01:00:30,251
"Penganut Bumi bulat memengaruhinya."

1037
01:00:31,044 --> 01:00:33,963
Teori konspirasi Bumi datar
direkomendasikan

1038
01:00:34,047 --> 01:00:37,634
ratusan juta kali oleh algoritme itu.

1039
01:00:37,800 --> 01:00:39,010
Mudah untuk berpikir

1040
01:00:39,093 --> 01:00:43,890
bahwa hanya beberapa orang bodoh
yang meyakininya,

1041
01:00:43,973 --> 01:00:46,893
tapi algoritme ini makin cerdas
setiap harinya.

1042
01:00:46,976 --> 01:00:50,188
Jadi, kini mereka meyakinkan orang-orang
bahwa Bumi itu datar,

1043
01:00:50,271 --> 01:00:53,983
tapi besok, mereka akan meyakinkanmu
tentang hal keliru lainnya.

1044
01:00:54,317 --> 01:00:57,820
<i>Pada 7 November, tagar "Pizzagate" lahir.</i>

1045
01:00:57,904 --> 01:00:59,197
Pizzagate...

1046
01:01:00,782 --> 01:01:01,658
Astaga.

1047
01:01:03,159 --> 01:01:06,913
<i>Aku masih tak yakin</i>
<i>bagaimana awalnya ini terjadi,</i>

1048
01:01:06,996 --> 01:01:12,377
tapi ide bahwa memesan piza berarti
memesan orang yang diperdagangkan.

1049
01:01:12,460 --> 01:01:15,046
Saat grup itu makin besar di Facebook,

1050
01:01:15,129 --> 01:01:19,926
mesin rekomendasi Facebook
mulai menyarankan para pengguna biasa

1051
01:01:20,009 --> 01:01:21,761
untuk bergabung dengan grup Pizzagate.

1052
01:01:22,053 --> 01:01:27,392
Jadi, jika pengguna, misalnya,
anti-vaksin, meyakini teori jejak kimia,

1053
01:01:27,475 --> 01:01:30,645
atau menunjukkan kepada algoritme Facebook

1054
01:01:30,728 --> 01:01:33,398
bahwa mereka cenderung memercayai
teori konspirasi,

1055
01:01:33,481 --> 01:01:36,859
mesin rekomendasi Facebook akan menyajikan
grup Pizzagate.

1056
01:01:36,943 --> 01:01:41,072
<i>Akhirnya, ini berujung pada seorang pria</i>
<i>yang muncul dengan pistol</i>

1057
01:01:41,155 --> 01:01:44,617
<i>dan memutuskan dia akan membebaskan</i>
<i>anak-anak dari basemen</i>

1058
01:01:44,701 --> 01:01:47,078
<i>dari tempat piza yang tak punya basemen.</i>

1059
01:01:47,161 --> 01:01:49,997
- Kenapa kau kemari?
- Memastikan tak ada apa-apa di sana.

1060
01:01:50,581 --> 01:01:52,291
- Soal apa?
- Jaringan pedofilia.

1061
01:01:52,375 --> 01:01:53,835
- Soal apa?
- Jaringan pedofilia.

1062
01:01:53,918 --> 01:01:55,878
Maksudnya, Pizzagate.

1063
01:01:55,962 --> 01:02:00,216
Ini contoh teori konspirasi

1064
01:02:00,299 --> 01:02:03,678
yang disebarkan di semua jejaring sosial.

1065
01:02:03,761 --> 01:02:07,974
Mesin rekomendasi jejaring sosial itu
secara sukarela menyajikannya kepada orang

1066
01:02:08,057 --> 01:02:10,643
yang tak pernah sama sekali mencari
istilah "Pizzagate".

1067
01:02:10,727 --> 01:02:12,353
PIZZAGATE
WADAH DEMOKRAT DAN PEDOFIL

1068
01:02:12,437 --> 01:02:14,439
Ada sebuah studi MIT yang menyebutkan

1069
01:02:14,522 --> 01:02:16,441
berita palsu di Twitter menyebar

1070
01:02:16,524 --> 01:02:19,569
enam kali lebih cepat
daripada berita sebenarnya.

1071
01:02:19,902 --> 01:02:21,863
Seperti apa dunia itu

1072
01:02:21,946 --> 01:02:24,907
jika ada yang lebih unggul enam kali lipat
daripada yang lain?

1073
01:02:25,283 --> 01:02:27,660
Kita bisa membayangkan semua hal ini

1074
01:02:27,744 --> 01:02:31,706
seperti mengubah neraca perilaku manusia.

1075
01:02:31,789 --> 01:02:34,709
Mereka membuat sebagian perilaku
lebih sulit atau lebih mudah.

1076
01:02:34,792 --> 01:02:37,420
Kita selalu bebas menghadapi yang sulit,

1077
01:02:37,503 --> 01:02:38,796
tapi jarang ada yang mau.

1078
01:02:38,880 --> 01:02:43,092
Jadi, dalam skala besar di masyarakat,
kita memiringkan neraca itu,

1079
01:02:43,176 --> 01:02:45,970
mengubah pikiran
dan perilaku miliaran orang.

1080
01:02:46,053 --> 01:02:52,018
Kita menciptakan sistem yang berprasangka
terhadap informasi palsu.

1081
01:02:52,643 --> 01:02:54,437
Bukan karena kita mau,

1082
01:02:54,520 --> 01:02:58,816
tapi karena informasi palsu memberi
semua perusahaan itu lebih banyak uang

1083
01:02:59,400 --> 01:03:01,486
daripada kebenaran.
ebenaran itu membosankan.

1084
01:03:01,986 --> 01:03:04,489
Ini model bisnis yang mencari profit
dari disinformasi.

1085
01:03:04,906 --> 01:03:08,159
Kita menghasilkan uang
dengan membebaskan pesan tak terkontrol

1086
01:03:08,701 --> 01:03:11,412
diterima siapa saja dengan harga terbaik.

1087
01:03:11,662 --> 01:03:13,748
<i>Karena perubahan iklim? Ya.</i>

1088
01:03:13,831 --> 01:03:16,751
<i>Itu hoaks. Ya, itu nyata. Itulah intinya.</i>

1089
01:03:16,834 --> 01:03:20,046
<i>Makin sering mereka membahasnya</i>
<i>dan makin kita terpecah,</i>

1090
01:03:20,129 --> 01:03:22,340
<i>kekuatan dan kendali mereka</i>
<i>akan makin besar.</i>

1091
01:03:22,423 --> 01:03:25,551
<i>Facebook punya triliunan pos umpan berita</i>
<i>seperti ini.</i>

1092
01:03:26,552 --> 01:03:29,263
Mereka tak bisa tahu
apa yang nyata atau benar.

1093
01:03:29,972 --> 01:03:33,726
Itu sebabnya pembahasan ini
sangat penting sekarang.

1094
01:03:33,810 --> 01:03:37,021
<i>Bukan hanya COVID-19 yang menyebar cepat.</i>

1095
01:03:37,104 --> 01:03:40,191
<i>Ada rangkaian informasi yang salah</i>
<i>tentang virus ini di internet.</i>

1096
01:03:40,274 --> 01:03:43,694
<i>Ide bahwa minum lebih banyak air</i>
<i>akan menghapus virus korona dari tubuh</i>

1097
01:03:43,778 --> 01:03:47,490
<i>adalah salah satu mitos soal virus ini</i>
<i>yang beredar di media sosial.</i>

1098
01:03:47,573 --> 01:03:50,451
<i>Pemerintah merencanakan peristiwa ini,</i>
<i>menciptakan virusnya,</i>

1099
01:03:50,827 --> 01:03:53,579
<i>dan melakukan simulasi</i>
<i>tentang reaksi berbagai negara.</i>

1100
01:03:53,955 --> 01:03:55,581
Virus korona itu hoaks.

1101
01:03:56,165 --> 01:03:57,959
SARS, virus korona.

1102
01:03:58,376 --> 01:04:01,045
Lihatlah tahun pembuatannya. 2018.

1103
01:04:01,128 --> 01:04:03,798
Kurasa pemerintah Amerika memulai ini.

1104
01:04:04,215 --> 01:04:07,343
Tak ada yang sakit.

1105
01:04:07,426 --> 01:04:09,095
Tak ada yang kenal orang yang sakit.

1106
01:04:09,512 --> 01:04:12,849
Mungkin pemerintah menggunakan
virus korona sebagai alasan

1107
01:04:12,932 --> 01:04:15,643
agar semua orang tetap di rumah
karena ada hal lain terjadi.

1108
01:04:15,726 --> 01:04:18,020
Virus korona tidak membunuh orang,

1109
01:04:18,104 --> 01:04:20,940
tapi radiasi 5G yang mereka pancarkan.

1110
01:04:21,023 --> 01:04:22,525
MENARA 5G DIPOTONG DAN DIBAKAR

1111
01:04:22,608 --> 01:04:24,569
<i>Kita dibombardir dengan rumor.</i>

1112
01:04:25,403 --> 01:04:28,823
<i>Orang-orang meledakkan menara seluler.</i>

1113
01:04:28,906 --> 01:04:32,159
<i>Kita melihat Rusia dan Cina menyebarkan</i>
<i>rumor dan teori konspirasi.</i>

1114
01:04:32,243 --> 01:04:35,246
<i>Tadi pagi,</i>
<i>muncul kepanikan dan protes di Ukraina...</i>

1115
01:04:35,329 --> 01:04:38,916
<i>Orang tak tahu apa yang benar</i>
<i>dan kini menjadi masalah hidup dan mati.</i>

1116
01:04:40,001 --> 01:04:42,628
Sumber-sumber yang menyebarkan
informasi virus korona palsu

1117
01:04:42,712 --> 01:04:45,798
telah mengumpulkan
sekitar 52 juta keterlibatan.

1118
01:04:45,882 --> 01:04:50,094
Maksudmu, larutan perak akan efektif.

1119
01:04:50,177 --> 01:04:54,140
Anggaplah itu belum diuji
pada jenis virus korona ini...

1120
01:04:54,223 --> 01:04:57,226
<i>Apa yang kita lihat dengan COVID</i>
<i>hanyalah versi ekstrem</i>

1121
01:04:57,310 --> 01:05:00,688
<i>dari apa yang terjadi</i>
<i>di seluruh ekosistem informasi kita.</i>

1122
01:05:00,980 --> 01:05:04,942
<i>Media sosial memperkuat gosip</i>
<i>dan desas-desus eksponensial</i>

1123
01:05:05,026 --> 01:05:07,111
<i>hingga kita tak tahu apa yang benar,</i>

1124
01:05:07,194 --> 01:05:09,113
<i>apa pun isu yang kita pedulikan.</i>

1125
01:05:26,130 --> 01:05:27,465
Kau masih tergabung di tim?

1126
01:05:30,468 --> 01:05:34,597
Aku akan membeli camilan
sebelum latihan jika kau mau ikut.

1127
01:05:37,016 --> 01:05:38,684
Lupakan saja.

1128
01:05:39,936 --> 01:05:44,982
KAMI MEMBUTUHKANMU,
BERGABUNGLAH SEKARANG

1129
01:05:45,066 --> 01:05:47,526
<i>Sembilan dari sepuluh orang</i>
<i>merasa tak puas saat ini.</i>

1130
01:05:47,610 --> 01:05:50,613
<i>Jika dipikir lagi, EC mirip</i>
<i>dengan gerakan politik dalam sejarah.</i>

1131
01:05:50,821 --> 01:05:54,492
<i>Kita melawan gangguan ini.</i>

1132
01:05:54,575 --> 01:05:57,036
<i>Kalian adalah kaumku. Aku percaya kalian.</i>

1133
01:05:59,205 --> 01:06:02,583
- Konten Extreme Center itu hebat.
- Dia amat menyukainya.

1134
01:06:02,667 --> 01:06:03,626
Melakukan lelang.

1135
01:06:04,585 --> 01:06:08,547
Ada 843 penawar, dia terjual
seharga 4,35 sen ke pabrik senjata.

1136
01:06:08,631 --> 01:06:10,841
Ayo promosikan beberapa acara ini.

1137
01:06:10,925 --> 01:06:13,511
Unjuk rasa mendatang di zona geografisnya
akhir pekan ini.

1138
01:06:13,594 --> 01:06:15,179
Aku juga punya naravlog baru.

1139
01:06:17,848 --> 01:06:22,979
<i>Sejujurnya, percayalah,</i>
<i>aku bersedia melakukan apa saja.</i>

1140
01:06:23,062 --> 01:06:24,939
<i>Maksudku, apa saja.</i>

1141
01:06:32,154 --> 01:06:33,197
<i>- Berlanggananlah</i>
- Ben?

1142
01:06:33,280 --> 01:06:35,950
<i>dan kembalilah lagi karena percayalah,</i>

1143
01:06:36,617 --> 01:06:38,869
<i>aku punya rencana sangat besar.</i>

1144
01:06:38,953 --> 01:06:40,204
<i>Rencana sangat besar.</i>

1145
01:06:40,788 --> 01:06:45,292
<i>Salah satu masalah dengan Facebook</i>
<i>adalah sebagai alat persuasi,</i>

1146
01:06:45,793 --> 01:06:47,920
<i>itu mungkin hal terhebat</i>
<i>yang pernah dibuat.</i>

1147
01:06:48,170 --> 01:06:52,508
Sekarang, bayangkan artinya itu
di tangan diktator atau pemimpin otoriter.

1148
01:06:53,718 --> 01:06:57,638
Jika kita ingin mengendalikan
populasi negaramu,

1149
01:06:57,722 --> 01:07:01,308
tak pernah ada alat
yang seefektif Facebook.

1150
01:07:04,937 --> 01:07:07,398
<i>Beberapa implikasi yang paling meresahkan</i>

1151
01:07:07,481 --> 01:07:11,235
dari pemerintah dan pelaku jahat lain
yang menjadikan media sosial senjata

1152
01:07:11,527 --> 01:07:13,612
adalah menyebabkan bahaya di dunia nyata.

1153
01:07:13,696 --> 01:07:15,072
Kurasa contoh paling menonjol

1154
01:07:15,156 --> 01:07:17,658
yang banyak diberitakan
adalah kejadian di Myanmar.

1155
01:07:17,742 --> 01:07:19,160
KANTOR KEPRESIDENAN MYANMAR

1156
01:07:19,243 --> 01:07:21,203
Di Myanmar,
saat orang memikirkan internet,

1157
01:07:21,287 --> 01:07:22,913
yang terpikir adalah Facebook.

1158
01:07:22,997 --> 01:07:25,916
Yang sering terjadi adalah
saat orang-orang membeli ponsel,

1159
01:07:26,000 --> 01:07:29,920
pemilik toko ponsel
akan memasangkan Facebook

1160
01:07:30,004 --> 01:07:31,505
dan membuatkan mereka akun.

1161
01:07:31,589 --> 01:07:34,884
Jadi, saat mendapatkan ponsel,
hal pertama yang mereka buka

1162
01:07:34,967 --> 01:07:37,595
dan yang mereka tahu cara membukanya
hanyalah Facebook.

1163
01:07:38,179 --> 01:07:41,891
Penyelidikan mengejutkan baru mengungkap
makin sulitnya Facebook

1164
01:07:41,974 --> 01:07:43,809
mengatasi ujaran kebencian di Myanmar.

1165
01:07:43,893 --> 01:07:46,020
BERHENTI MEMBUNUH MUSLIM

1166
01:07:46,103 --> 01:07:49,190
Facebook benar-benar memberi militer
dan pelaku jahat lainnya

1167
01:07:49,273 --> 01:07:51,776
cara baru memanipulasi opini publik

1168
01:07:51,859 --> 01:07:55,529
dan membantu memicu kekerasan
terhadap Muslim Rohingya

1169
01:07:55,613 --> 01:07:57,406
yang termasuk pembunuhan massal,

1170
01:07:58,074 --> 01:07:59,867
membakar seluruh desa,

1171
01:07:59,950 --> 01:08:00,951
pemerkosaan massal,

1172
01:08:01,035 --> 01:08:03,704
dan kejahatan berat lain
terhadap kemanusiaan

1173
01:08:03,788 --> 01:08:08,209
yang kini membuat 700.000 Muslim Rohingya
harus meninggalkan Myanmar.

1174
01:08:11,170 --> 01:08:16,550
Ini bukan karena pelaku propaganda
yang gencar tak ada sebelumnya,

1175
01:08:16,634 --> 01:08:19,762
tapi karena semua platform ini
memungkinkan

1176
01:08:19,845 --> 01:08:23,724
penyebaran narasi manipulatif
dengan sangat mudah

1177
01:08:23,808 --> 01:08:25,434
dan tanpa membayar mahal.

1178
01:08:25,518 --> 01:08:27,812
Jika aku ingin memanipulasi pemilu,

1179
01:08:27,895 --> 01:08:30,564
aku bisa masuk ke grup teori konspirasi
di Facebook,

1180
01:08:30,648 --> 01:08:34,443
menemukan 100 orang
yang percaya bahwa Bumi benar-benar datar

1181
01:08:34,860 --> 01:08:37,780
dan menganggap pendaratan di bulan
adalah teori konspirasi,

1182
01:08:37,863 --> 01:08:41,450
lalu bisa kuminta Facebook memberiku
seribu pengguna yang tampak seperti itu.

1183
01:08:42,118 --> 01:08:46,080
<i>Facebook akan dengan senang hati mengirim</i>
<i>ribuan pengguna yang mirip mereka</i>

1184
01:08:46,163 --> 01:08:49,416
<i>yang kini bisa kujejali</i>
<i>dengan teori konspirasi lainnya.</i>

1185
01:08:51,127 --> 01:08:53,129
Terjual seharga 3,4 sen per impresi.

1186
01:08:53,379 --> 01:08:56,173
- Video EC baru untuk dipromosikan.
- Satu iklan lagi siap.

1187
01:08:58,509 --> 01:09:02,138
Algoritme dan politisi manipulatif menjadi
sangat ahli

1188
01:09:02,221 --> 01:09:04,056
dalam mempelajari cara memicu kita,

1189
01:09:04,140 --> 01:09:08,352
makin mahir menciptakan berita palsu
yang kita serap seolah-olah itu kenyataan

1190
01:09:08,435 --> 01:09:10,813
dan membingungkan kita
untuk meyakini kebohongan itu.

1191
01:09:10,896 --> 01:09:14,150
Seolah-olah kita kehilangan kendali
atas jati diri dan keyakinan kita.

1192
01:09:31,375 --> 01:09:32,668
<i>...agar mereka bisa memihak.</i>

1193
01:09:32,751 --> 01:09:34,879
<i>Ada kebohongan di sini dan di sana.</i>

1194
01:09:34,962 --> 01:09:39,967
<i>Agar mereka bisa terus berkuasa</i>
<i>dan mengendalikan semuanya.</i>

1195
01:09:40,050 --> 01:09:42,636
<i>Mereka bisa mengendalikan pikiran kita</i>

1196
01:09:42,720 --> 01:09:46,390
<i>agar mereka bisa menyimpan rahasia mereka.</i>

1197
01:09:46,473 --> 01:09:48,601
CDC MENGAKU MENUTUPI
FAKTA VAKSIN MEMICU AUTISME

1198
01:09:48,684 --> 01:09:50,895
<i>Bayangkan dunia</i>
<i>tempat kebenaran tak dipercaya.</i>

1199
01:09:50,978 --> 01:09:52,813
VAKSIN ITU BERACUN
LINDUNGI ANAK KITA

1200
01:09:52,897 --> 01:09:55,649
<i>Semua orang percaya</i>
<i>pemerintah membohongi mereka.</i>

1201
01:09:56,317 --> 01:09:58,444
<i>Semuanya adalah teori konspirasi.</i>

1202
01:09:58,527 --> 01:10:01,197
<i>"Aku tak boleh percaya siapa pun.</i>
<i>Aku benci pihak lain."</i>

1203
01:10:01,280 --> 01:10:02,698
Itulah arah semua ini.

1204
01:10:02,781 --> 01:10:06,160
Gempa bumi politik di Eropa
terus bergemuruh,

1205
01:10:06,243 --> 01:10:08,412
kali ini di Italia dan Spanyol.

1206
01:10:08,495 --> 01:10:11,999
<i>Koalisi sentris tradisional Eropa</i>
<i>kehilangan mayoritas suaranya</i>

1207
01:10:12,082 --> 01:10:15,002
<i>sementara partai sayap kanan dan kiri</i>
<i>alami peningkatan.</i>

1208
01:10:19,715 --> 01:10:20,591
Mundur.

1209
01:10:21,675 --> 01:10:22,509
Baiklah, ayo.

1210
01:10:28,390 --> 01:10:31,268
<i>Akun-akun ini dengan sengaja</i>
<i>dan secara khusus berusaha</i>

1211
01:10:31,352 --> 01:10:33,896
<i>menebar pertikaian politik di Hong Kong.</i>

1212
01:10:38,609 --> 01:10:39,610
Baiklah, Ben.

1213
01:10:42,863 --> 01:10:45,032
Bagaimana rasanya menjadi negara

1214
01:10:45,115 --> 01:10:48,410
yang sumber informasi utamanya
adalah Facebook dan media sosial?

1215
01:10:48,953 --> 01:10:50,871
Demokrasi hancur begitu cepat.

1216
01:10:50,955 --> 01:10:51,830
Enam bulan.

1217
01:10:51,914 --> 01:10:53,791
<i>Setelah kekacauan di Chicago,</i>

1218
01:10:53,874 --> 01:10:57,086
<i>bentrokan antara pemrotes dan pendukung,</i>

1219
01:10:58,003 --> 01:11:01,632
<i>Demokrasi menghadapi krisis kepercayaan.</i>

1220
01:11:01,715 --> 01:11:04,343
Yang kita lihat adalah serangan global
terhadap demokrasi.

1221
01:11:05,135 --> 01:11:07,930
<i>Mayoritas negara yang menjadi target</i>
<i>adalah negara-negara</i>

1222
01:11:08,013 --> 01:11:10,099
<i>yang menjalankan pemilu demokratis.</i>

1223
01:11:10,724 --> 01:11:12,518
<i>Ini terjadi dalam skala besar.</i>

1224
01:11:12,601 --> 01:11:15,562
Oleh pihak negara dan pemilik jutaan dolar
yang berkata,

1225
01:11:15,646 --> 01:11:18,524
"Aku ingin mengacaukan Kenya
atau Kamerun.

1226
01:11:18,607 --> 01:11:20,651
Angola? Itu hanya seharga ini."

1227
01:11:20,734 --> 01:11:23,362
<i>Pemilu luar biasa berlangsung</i>
<i>hari Minggu lalu di Brasil.</i>

1228
01:11:23,445 --> 01:11:25,823
<i>Dengan kampanye yang didukung</i>
<i>media sosial.</i>

1229
01:11:31,036 --> 01:11:33,956
<i>Kami dari industri teknologi</i>
<i>telah menciptakan alat</i>

1230
01:11:34,248 --> 01:11:37,418
untuk mengacaukan
dan mengikis struktur masyarakat,

1231
01:11:37,501 --> 01:11:40,254
di setiap negara sekaligus, di mana-mana.

1232
01:11:40,337 --> 01:11:44,508
Ini terjadi di Jerman, Spanyol, Prancis,
Brasil, Australia.

1233
01:11:44,591 --> 01:11:46,927
Beberapa negara maju di dunia

1234
01:11:47,428 --> 01:11:49,221
kini saling menghancurkan

1235
01:11:49,305 --> 01:11:50,931
dan apa kesamaan mereka?

1236
01:11:51,974 --> 01:11:56,312
Sepengetahuanmu, apa kau percaya
Facebook memengaruhi hasil pemilu 2016?

1237
01:11:56,854 --> 01:11:58,188
Itu sulit.

1238
01:11:59,148 --> 01:12:00,024
Itu...

1239
01:12:01,275 --> 01:12:04,653
Kenyataannya adalah
ada begitu banyak faktor.

1240
01:12:04,737 --> 01:12:07,865
Perwakilan dari Facebook, Twitter,
dan Google kembali ke Capitol Hill

1241
01:12:07,948 --> 01:12:09,450
untuk kesaksian hari kedua

1242
01:12:09,533 --> 01:12:12,578
soal campur tangan Rusia
dalam pemilu 2016.

1243
01:12:12,661 --> 01:12:17,291
Manipulasi oleh pihak ketiga
bukanlah peretasan.

1244
01:12:18,500 --> 01:12:21,462
Rusia tak meretas Facebook.

1245
01:12:21,628 --> 01:12:24,965
Yang mereka lakukan adalah
menggunakan alat yang dibuat Facebook

1246
01:12:25,049 --> 01:12:27,843
untuk pengiklan dan pengguna yang sah,

1247
01:12:27,926 --> 01:12:30,346
yang mereka terapkan untuk tujuan jahat.

1248
01:12:31,972 --> 01:12:34,016
Itu seperti perang
dengan kendali jarak jauh.

1249
01:12:34,475 --> 01:12:36,602
Satu negara bisa memanipulasi negara lain

1250
01:12:36,685 --> 01:12:39,229
tanpa menyerbu perbatasan fisiknya.

1251
01:12:39,521 --> 01:12:41,023
<i>Kita melihat video kekerasan ini.</i>

1252
01:12:41,106 --> 01:12:43,317
<i>Tampaknya itu bak sampah yang didorong...</i>

1253
01:12:43,400 --> 01:12:45,903
Namun, itu bukan soal siapa
yang ingin kita pilih,

1254
01:12:46,362 --> 01:12:50,574
tapi soal menabur kekacauan
dan perpecahan di masyarakat.

1255
01:12:50,657 --> 01:12:53,077
<i>Ini terjadi di Huntington Beach,</i>
<i>sebuah demonstrasi...</i>

1256
01:12:53,160 --> 01:12:54,870
Ini soal membuat dua pihak

1257
01:12:54,953 --> 01:12:58,082
yang tak bisa
dan mau saling mendengar lagi,

1258
01:12:58,165 --> 01:12:59,875
yang tak saling percaya lagi.

1259
01:12:59,958 --> 01:13:02,252
<i>Ini kota tempat kebencian diumbar</i>

1260
01:13:03,295 --> 01:13:05,464
<i>dan berubah menjadi kekerasan rasial.</i>

1261
01:13:05,547 --> 01:13:07,633
KETEGANGAN VIRGINIA
TIGA TEWAS DALAM KEKERASAN

1262
01:13:20,145 --> 01:13:20,979
Ben!

1263
01:13:21,605 --> 01:13:22,439
Cassandra!

1264
01:13:22,981 --> 01:13:23,816
- Cass!
- Ben!

1265
01:13:23,899 --> 01:13:25,484
Kemari kau!

1266
01:13:27,486 --> 01:13:31,156
Angkat tangan. Berlutut. Tiarap.

1267
01:13:36,120 --> 01:13:37,204
- Tenang...
- Ben!

1268
01:13:37,287 --> 01:13:38,580
Hei! Angkat tangan!

1269
01:13:39,623 --> 01:13:41,291
Berbaliklah. Tiarap.

1270
01:13:56,807 --> 01:13:59,643
Apa kita ingin sistem ini dijual
kepada penawar tertinggi?

1271
01:13:59,726 --> 01:14:01,311
PRANCIS 2019

1272
01:14:01,395 --> 01:14:05,399
Demokrasi yang bisa dijual dan kita bisa
menjangkau benak siapa pun yang kita mau,

1273
01:14:05,482 --> 01:14:08,694
membuat kebohongan pada populasi tertentu
dan membuat perang budaya?

1274
01:14:09,236 --> 01:14:10,237
Apa kita mau itu?

1275
01:14:14,783 --> 01:14:16,201
<i>Kita adalah bangsa...</i>

1276
01:14:16,952 --> 01:14:18,620
yang tak saling bicara lagi.

1277
01:14:18,704 --> 01:14:19,997
SENATOR FLORIDA, AS

1278
01:14:20,080 --> 01:14:23,000
Kita bangsa orang yang berhenti berteman
dengan orang

1279
01:14:23,083 --> 01:14:25,294
karena pilihan mereka di pemilu lalu.

1280
01:14:25,961 --> 01:14:28,422
Kita bangsa yang mengisolasi diri

1281
01:14:28,505 --> 01:14:30,966
untuk menonton saluran
yang membenarkan kita saja.

1282
01:14:32,509 --> 01:14:36,805
Pesan saya hari ini
adalah kesukuan menghancurkan kita.

1283
01:14:37,347 --> 01:14:39,183
Ini menghancurkan negara kita.

1284
01:14:40,225 --> 01:14:43,103
Bukan seperti ini
cara orang dewasa waras bertindak.

1285
01:14:43,187 --> 01:14:45,397
Jika semua berhak meyakini
fakta yang mereka mau,

1286
01:14:45,481 --> 01:14:49,401
tak perlu ada kompromi
dan orang-orang tak perlu berkumpul.

1287
01:14:49,485 --> 01:14:51,695
Bahkan,
orang-orang tak perlu berinteraksi.

1288
01:14:52,321 --> 01:14:56,617
Kita harus memiliki pemahaman bersama
tentang kenyataan.

1289
01:14:57,367 --> 01:14:58,410
Atau kita bukan negara.

1290
01:14:58,911 --> 01:15:02,998
Jadi, solusi jangka panjangnya
adalah membangun lebih banyak alat IA

1291
01:15:03,081 --> 01:15:08,128
yang menemukan pola penggunaan layanan
yang mustahil dilakukan orang sungguhan.

1292
01:15:08,212 --> 01:15:11,840
Kita mengizinkan para pakar teknologi
menganggap ini sebagai masalah

1293
01:15:11,924 --> 01:15:14,009
yang siap mereka pecahkan.

1294
01:15:15,135 --> 01:15:16,470
Itu bohong.

1295
01:15:17,638 --> 01:15:20,766
Orang-orang membahas IA
seolah-olah itu akan paham kebenaran.

1296
01:15:21,683 --> 01:15:23,810
IA takkan menyelesaikan masalah ini.

1297
01:15:24,228 --> 01:15:27,189
IA tak bisa memecahkan
masalah berita palsu.

1298
01:15:28,649 --> 01:15:31,026
Google tak punya pilihan untuk bilang,

1299
01:15:31,109 --> 01:15:34,363
"Apa ini konspirasi? Apa ini kebenaran?"

1300
01:15:34,655 --> 01:15:36,240
Karena mereka tak tahu kebenaran.

1301
01:15:36,823 --> 01:15:40,410
Mereka tak punya proksi kebenaran
yang lebih baik dari klik.

1302
01:15:41,870 --> 01:15:45,123
Jika kita tak setuju soal apa yang benar

1303
01:15:45,207 --> 01:15:47,584
atau kebenaran itu sungguh ada,

1304
01:15:48,293 --> 01:15:49,294
kita akan hancur.

1305
01:15:49,878 --> 01:15:52,089
Ini masalah di bawah masalah lain,

1306
01:15:52,172 --> 01:15:54,424
karena jika tak bisa sepakat
soal apa yang benar,

1307
01:15:55,092 --> 01:15:57,803
kita tak bisa keluar
dari semua masalah kita.

1308
01:16:05,352 --> 01:16:07,854
Sebaiknya sarankan dia ikuti
Klub Sepak Bola Bumi Datar.

1309
01:16:07,938 --> 01:16:10,399
Jangan tunjukkan kabar olahraga lagi.
Dia tak tertarik.

1310
01:16:39,970 --> 01:16:42,764
<i>Banyak orang di Silicon Valley</i>
<i>yang meyakini sebuah teori</i>

1311
01:16:42,848 --> 01:16:45,225
<i>bahwa kita sedang membangun</i>
<i>otak super global</i>

1312
01:16:45,309 --> 01:16:48,020
<i>dan semua pengguna</i>
<i>hanyalah neuron kecil yang bisa ditukar.</i>

1313
01:16:48,103 --> 01:16:49,563
<i>Tak ada yang penting.</i>

1314
01:16:50,230 --> 01:16:53,150
<i>Itu memaksa orang mengambil peran aneh</i>

1315
01:16:53,233 --> 01:16:56,069
yang menjadikan kita
sebuah elemen komputer kecil

1316
01:16:56,153 --> 01:16:58,905
yang diprogram lewat manipulasi perilaku

1317
01:16:58,989 --> 01:17:02,367
untuk melayani otak raksasa ini
dan kita tak penting.

1318
01:17:02,451 --> 01:17:06,455
Kita takkan dibayar, diakui,
dan tak bisa menentukan nasib sendiri.

1319
01:17:06,538 --> 01:17:09,416
Kami akan diam-diam memanipulasimu
karena kau simpul komputer,

1320
01:17:09,499 --> 01:17:12,336
jadi, kami harus memprogrammu
karena begitulah simpul komputer.

1321
01:17:20,093 --> 01:17:21,094
Astaga.

1322
01:17:21,887 --> 01:17:25,390
<i>Saat memikirkan teknologi</i>
<i>yang menjadi ancaman eksistensial,</i>

1323
01:17:25,474 --> 01:17:28,060
itu pernyataan berani dan...

1324
01:17:29,603 --> 01:17:33,982
Maka akan mudah bagi kita untuk berpikir,
"Baiklah, aku membawa ponsel...

1325
01:17:35,525 --> 01:17:37,235
menggulir, mengeklik, menggunakannya.

1326
01:17:37,319 --> 01:17:39,237
Di mana ancaman eksistensialnya?

1327
01:17:40,238 --> 01:17:41,615
Ada komputer super,

1328
01:17:41,698 --> 01:17:44,034
di sisi lain layar, mengarah ke otakku,

1329
01:17:44,451 --> 01:17:47,537
membuatku menonton satu video lagi.
Di mana ancaman eksistensialnya?"

1330
01:17:54,252 --> 01:17:59,341
<i>Ini bukan soal teknologi</i>
<i>yang menjadi ancaman eksistensial.</i>

1331
01:18:02,511 --> 01:18:04,721
DENGAR PENDAPAT SENAT AS
SOAL TEKNOLOGI PERSUASIF

1332
01:18:04,805 --> 01:18:06,348
<i>Namun, kemampuan teknologi</i>

1333
01:18:06,431 --> 01:18:08,975
<i>untuk menghadirkan kemungkinan terburuk</i>
<i>di masyarakat</i>

1334
01:18:09,559 --> 01:18:13,522
dan kemungkinan terburuk itulah
ancaman eksistensialnya.

1335
01:18:13,605 --> 01:18:15,899
SENAT AMERIKA SERIKAT

1336
01:18:18,777 --> 01:18:20,570
<i>Jika teknologi menciptakan</i>

1337
01:18:21,655 --> 01:18:24,533
<i>kekacauan massal, kemarahan,</i>
<i>ketidaksopanan,</i>

1338
01:18:24,616 --> 01:18:26,326
<i>kurangnya saling percaya,</i>

1339
01:18:27,452 --> 01:18:30,622
<i>kesepian, alienasi,</i>
<i>peningkatan polarisasi,</i>

1340
01:18:30,706 --> 01:18:33,333
<i>peretasan pemilu, populisme,</i>

1341
01:18:33,917 --> 01:18:36,962
gangguan, dan ketidakmampuan berfokus
pada isu sebenarnya...

1342
01:18:37,963 --> 01:18:39,214
itulah masyarakat.

1343
01:18:40,340 --> 01:18:46,388
Kini masyarakat tak mampu
menyembuhkan dirinya

1344
01:18:46,471 --> 01:18:48,724
dan berubah menjadi semacam kekacauan.

1345
01:18:51,977 --> 01:18:54,938
Ini memengaruhi semua orang,
meski kita tak memakai produk ini.

1346
01:18:55,480 --> 01:18:57,524
Semua ini telah menjadi
Frankenstein digital

1347
01:18:57,607 --> 01:19:00,110
yang mengubah dunia
sesuai bayangan mereka,

1348
01:19:00,193 --> 01:19:01,862
entah itu kesehatan mental anak-anak

1349
01:19:01,945 --> 01:19:04,489
atau politik dan wacana politik kita,

1350
01:19:04,573 --> 01:19:07,492
tanpa bertanggung jawab membahasnya
di ranah publik.

1351
01:19:07,576 --> 01:19:10,579
- Jadi, itu kembali ke...
- Menurutmu siapa yang bertanggung jawab?

1352
01:19:10,662 --> 01:19:13,582
Kurasa kita harus meminta platform
bertanggung jawab

1353
01:19:13,665 --> 01:19:15,584
karena saat mengambil alih iklan pemilu,

1354
01:19:15,667 --> 01:19:17,753
mereka bertanggung jawab
melindungi pemilu.

1355
01:19:17,836 --> 01:19:20,464
Saat menguasai kesehatan mental anak
atau acara Sabtu pagi,

1356
01:19:20,547 --> 01:19:22,716
mereka bertanggung jawab
melindungi Sabtu pagi.

1357
01:19:23,800 --> 01:19:27,929
Perlombaan untuk menarik perhatian orang
tak akan hilang.

1358
01:19:28,638 --> 01:19:31,850
Teknologi kita akan menjadi lebih menyatu
dengan kehidupan kita.

1359
01:19:31,933 --> 01:19:34,978
IA akan lebih mahir memprediksi
hal yang membuat kita melihat layar,

1360
01:19:35,061 --> 01:19:37,105
bukan lebih buruk dalam memprediksinya.

1361
01:19:38,940 --> 01:19:42,027
Usiaku 62 tahun,

1362
01:19:42,110 --> 01:19:45,113
makin tua
seiring percakapan ini berlangsung,

1363
01:19:45,197 --> 01:19:47,365
tapi aku akan memberitahumu...

1364
01:19:48,700 --> 01:19:52,370
Aku mungkin akan mati
dan mungkin akan bersyukur untuk itu

1365
01:19:52,454 --> 01:19:54,372
saat semua ini membuahkan hasil.

1366
01:19:54,790 --> 01:19:59,753
Karena kupikir ini membuatku sangat takut.

1367
01:20:00,921 --> 01:20:03,298
Apa kau sependapat?

1368
01:20:03,548 --> 01:20:06,885
Atau aku bereaksi berlebihan
pada situasi yang kurang kuketahui?

1369
01:20:09,930 --> 01:20:11,640
Apa yang paling kau cemaskan?

1370
01:20:15,519 --> 01:20:18,480
Kurasa dalam jangka pendek...

1371
01:20:19,523 --> 01:20:20,524
perang saudara.

1372
01:20:24,444 --> 01:20:29,908
Jika kita teruskan situasi saat ini,
anggaplah hingga 20 tahun lagi...

1373
01:20:31,117 --> 01:20:34,579
peradaban kita mungkin akan hancur
karena kebodohan yang disengaja.

1374
01:20:34,663 --> 01:20:37,958
Kita mungkin gagal menghadapi
tantangan perubahan iklim.

1375
01:20:38,041 --> 01:20:42,087
Kita mungkin memperburuk demokrasi dunia

1376
01:20:42,170 --> 01:20:46,132
sehingga mereka jatuh
ke dalam disfungsi autokrat yang aneh.

1377
01:20:46,216 --> 01:20:48,510
Kita mungkin merusak ekonomi global.

1378
01:20:49,135 --> 01:20:52,264
Kita mungkin tak selamat.

1379
01:20:52,347 --> 01:20:54,808
Aku sungguh menganggap ini eksistensial.

1380
01:21:02,482 --> 01:21:04,985
<i>Apa ini generasi terakhir</i>

1381
01:21:05,068 --> 01:21:08,822
<i>yang akan tahu rasanya</i>
<i>sebelum ilusi ini terjadi?</i>

1382
01:21:11,074 --> 01:21:14,578
Bagaimana kita terbangun dari matriks
saat kita tak tahu ada di matriks?

1383
01:21:17,747 --> 01:21:23,253
"MENJADI UTOPIA ATAU DILUPAKAN,
AKAN DITENTUKAN OLEH LOMBA ESTAFET

1384
01:21:23,336 --> 01:21:27,299
HINGGA SAAT TERAKHIR..."
BUCKMINSTER FULLER

1385
01:21:27,382 --> 01:21:30,635
Banyak ucapan kami yang terdengar
seolah-olah ini...

1386
01:21:31,511 --> 01:21:33,680
hanyalah hanya malapetaka
dan kesuraman sepihak.

1387
01:21:33,763 --> 01:21:36,808
Seperti, "Astaga,
teknologi menghancurkan dunia...

1388
01:21:36,892 --> 01:21:39,519
dan anak-anak," tapi tidak.

1389
01:21:40,228 --> 01:21:45,567
Ini membingungkan
karena ini utopia sekaligus distopia.

1390
01:21:45,942 --> 01:21:50,447
Aku bisa menekan tombol di ponselku
dan mobil akan muncul dalam 30 detik,

1391
01:21:50,530 --> 01:21:52,699
lalu aku bisa pergi ke tujuanku.

1392
01:21:53,033 --> 01:21:55,785
Itu ajaib. Itu luar biasa.

1393
01:21:56,161 --> 01:21:58,788
Saat kami membuat tombol "Suka",
motivasi kami adalah,

1394
01:21:58,872 --> 01:22:01,499
"Bisakah kita menyebarkan aura positif
dan cinta di dunia?"

1395
01:22:01,583 --> 01:22:06,379
Lalu berpikir bahwa kini remaja tertekan
saat tak banyak dapat respons "Suka"

1396
01:22:06,463 --> 01:22:08,632
atau itu bisa mengarah
ke polarisasi politik,

1397
01:22:08,715 --> 01:22:09,883
tak terpikir oleh kami.

1398
01:22:10,175 --> 01:22:12,344
Kurasa mereka tak berniat jahat.

1399
01:22:13,511 --> 01:22:15,764
Hanya model bisnisnya yang bermasalah.

1400
01:22:15,847 --> 01:22:20,226
Kita bisa menutup layanannya
dan menghancurkan apa pun itu,

1401
01:22:20,310 --> 01:22:24,397
nilai pemegang saham 20 miliar dolar,
dituntut...

1402
01:22:24,481 --> 01:22:27,108
Namun, kita tak bisa membalikkan
keadaan seperti masa lalu.

1403
01:22:27,442 --> 01:22:30,403
Kita bisa membuat modifikasi kecil,
tapi pada akhirnya,

1404
01:22:30,487 --> 01:22:34,032
pendapatan dan penggunaan harus meningkat,
kuartal dari kuartal.

1405
01:22:34,658 --> 01:22:37,535
Makin besar itu,
makin sulit bagi siapa pun untuk berubah.

1406
01:22:38,495 --> 01:22:43,458
Yang kulihat adalah sekelompok orang yang
terjebak oleh model bisnis,

1407
01:22:43,541 --> 01:22:46,169
insentif ekonomi,
dan tekanan pemegang saham

1408
01:22:46,252 --> 01:22:48,922
yang membuatnya hampir mustahil
untuk melakukan hal lain.

1409
01:22:49,005 --> 01:22:50,840
Kurasa kita harus menerima fakta

1410
01:22:50,924 --> 01:22:53,176
bahwa perusahaan boleh berfokus
menghasilkan uang.

1411
01:22:53,259 --> 01:22:56,888
Yang buruk adalah saat tak ada regulasi,
aturan, dan persaingan

1412
01:22:56,972 --> 01:23:00,850
dan perusahaan bertindak
sebagai pemerintah yang asli.

1413
01:23:01,142 --> 01:23:03,353
Lalu mereka berkata,
"Kami bisa mengatur diri."

1414
01:23:03,436 --> 01:23:05,981
Itu sebuah kebohongan. Itu konyol.

1415
01:23:06,064 --> 01:23:09,150
Insentif keuangan bisa dibilang
mengatur dunia,

1416
01:23:09,234 --> 01:23:15,573
jadi, apa pun solusi masalah ini
haruslah mengubah insentif keuangan itu.

1417
01:23:16,157 --> 01:23:18,785
Tak ada alasan fiskal
agar perusahaan ini berubah.

1418
01:23:19,160 --> 01:23:21,329
Itu sebabnya kita perlu peraturan.

1419
01:23:21,413 --> 01:23:24,290
Perusahaan telepon punya
banyak data sensitif soal kita

1420
01:23:24,374 --> 01:23:27,544
dan ada banyak hukum yang memastikan
mereka tak berbuat salah.

1421
01:23:27,627 --> 01:23:31,506
Kita hampir tak punya hukum
tentang privasi digital misalnya.

1422
01:23:31,589 --> 01:23:34,426
Kita bisa memajaki pemungutan
dan pemrosesan data.

1423
01:23:34,509 --> 01:23:37,554
Sama seperti saat kita membayar
tagihan air

1424
01:23:37,637 --> 01:23:39,723
dengan memantau jumlah penggunaan air,

1425
01:23:39,806 --> 01:23:43,226
kenakan pajak pada perusahaan ini
atas aset data yang mereka miliki.

1426
01:23:43,309 --> 01:23:44,769
Itu memberi mereka alasan fiskal

1427
01:23:44,853 --> 01:23:47,856
untuk tak memperoleh semua data
di planet ini.

1428
01:23:48,148 --> 01:23:50,567
Hukum jauh tertinggal dalam hal ini.

1429
01:23:50,650 --> 01:23:55,864
Yang kutahu, situasi saat ini ada
bukan untuk melindungi pengguna,

1430
01:23:55,947 --> 01:23:58,700
tapi untuk perlindungan hak dan privilese

1431
01:23:58,783 --> 01:24:01,453
dari semua perusahaan raksasa
yang sangat kaya ini.

1432
01:24:02,203 --> 01:24:05,832
Apa kita akan selalu tunduk
kepada orang terkaya dan paling berkuasa?

1433
01:24:05,915 --> 01:24:07,417
Atau kita akan bilang,

1434
01:24:07,959 --> 01:24:12,047
"Ada kalanya saat kepentingan nasional,

1435
01:24:12,130 --> 01:24:15,592
ada kalanya saat kepentingan orang
atau para pengguna,

1436
01:24:15,675 --> 01:24:17,385
sebenarnya lebih penting

1437
01:24:18,011 --> 01:24:21,473
daripada keuntungan
bagi orang yang sudah menjadi miliarder"?

1438
01:24:21,848 --> 01:24:26,603
Pasar-pasar ini merusak demokrasi
dan kebebasan.

1439
01:24:26,686 --> 01:24:28,521
Mereka harus dilarang.

1440
01:24:29,147 --> 01:24:31,816
Ini bukan proposal radikal.

1441
01:24:31,900 --> 01:24:34,194
Ada pasar lain yang kita larang.

1442
01:24:34,277 --> 01:24:36,988
Kita melarang pasar organ manusia.

1443
01:24:37,197 --> 01:24:39,491
Kami melarang pasar budak manusia.

1444
01:24:39,949 --> 01:24:44,037
Karena mereka punya konsekuensi merusak
yang tak terelakkan.

1445
01:24:44,662 --> 01:24:45,830
Kita hidup di dunia

1446
01:24:45,914 --> 01:24:50,251
tempat pohon mati bernilai lebih,
secara finansial, daripada yang hidup.

1447
01:24:50,335 --> 01:24:53,838
Dunia tempat paus mati lebih berharga
daripada yang hidup.

1448
01:24:53,922 --> 01:24:56,341
Jika ekonomi kita terus bekerja
seperti itu

1449
01:24:56,424 --> 01:24:58,134
dan perusahaan tak diatur,

1450
01:24:58,218 --> 01:25:00,678
mereka akan terus menghancurkan pohon,

1451
01:25:00,762 --> 01:25:01,763
membunuh paus,

1452
01:25:01,846 --> 01:25:06,101
menambang tanah,
dan terus menarik minyak dari tanah,

1453
01:25:06,184 --> 01:25:08,394
meski kita tahu itu menghancurkan planet

1454
01:25:08,478 --> 01:25:12,148
dan membuat dunia yang lebih buruk
untuk generasi mendatang.

1455
01:25:12,232 --> 01:25:13,858
Ini pemikiran jangka pendek

1456
01:25:13,942 --> 01:25:16,694
berdasarkan perilaku
yang menuhankan keuntungan ini,

1457
01:25:16,778 --> 01:25:20,073
seolah-olah secara ajaib,
tiap perusahaan yang bertindak egois ini

1458
01:25:20,156 --> 01:25:21,950
akan memberikan hasil terbaik.

1459
01:25:22,033 --> 01:25:24,494
Ini sudah memengaruhi lingkungan
sejak lama.

1460
01:25:24,702 --> 01:25:27,205
Yang menakutkan
dan semoga ini menjadi pemicu terakhir

1461
01:25:27,288 --> 01:25:29,249
yang akan menyadarkan kita
sebagai peradaban

1462
01:25:29,332 --> 01:25:31,709
akan betapa salahnya teori ini sejak awal

1463
01:25:31,793 --> 01:25:35,004
adalah menganggap
bahwa kini kitalah pohon dan pausnya.

1464
01:25:35,088 --> 01:25:37,048
Perhatian kita bisa ditambang.

1465
01:25:37,132 --> 01:25:39,134
Kita akan lebih menguntungkan perusahaan

1466
01:25:39,217 --> 01:25:41,594
jika kita menghabiskan waktu
menatap layar,

1467
01:25:41,678 --> 01:25:42,971
menatap iklan,

1468
01:25:43,054 --> 01:25:45,890
daripada menghabiskan waktu itu
untuk menikmati hidup.

1469
01:25:45,974 --> 01:25:47,559
Jadi, kini kita melihat akibatnya.

1470
01:25:47,642 --> 01:25:50,687
Kita melihat perusahaan menggunakan
inteligensi artifisial yang kuat

1471
01:25:50,770 --> 01:25:53,606
untuk mengakali dan mencari cara
menarik perhatian kita

1472
01:25:53,690 --> 01:25:57,068
menuju hal yang mereka mau kita lihat,
daripada hal yang paling konsisten

1473
01:25:57,152 --> 01:25:59,237
dengan tujuan, nilai, dan hidup kita.

1474
01:26:02,991 --> 01:26:04,450
PIDATO UTAMA HARI INI
STEVE JOBS

1475
01:26:05,535 --> 01:26:06,911
<i>Arti komputer bagiku adalah</i>

1476
01:26:06,995 --> 01:26:10,290
ini alat paling luar biasa
yang pernah kami buat.

1477
01:26:11,124 --> 01:26:13,877
<i>Itu setara dengan sepeda</i>
<i>untuk pikiran kita.</i>

1478
01:26:15,587 --> 01:26:20,341
Ide soal teknologi manusiawi,
itulah awal mula Silicon Valley.

1479
01:26:21,050 --> 01:26:25,722
Lalu kita kehilangan arah
karena itu menjadi tindakan yang keren,

1480
01:26:25,805 --> 01:26:27,265
bukan yang benar.

1481
01:26:27,557 --> 01:26:29,726
Dulu internet adalah
tempat yang aneh dan gila.

1482
01:26:30,018 --> 01:26:31,394
Itu eksperimental.

1483
01:26:31,519 --> 01:26:34,731
Dulu hal-hal kreatif terjadi di internet
dan tentu masih hingga kini,

1484
01:26:34,814 --> 01:26:38,610
tapi kini rasanya itu seperti mal raksasa.

1485
01:26:38,693 --> 01:26:44,282
Aku berpikir, "Astaga, pasti ada sesuatu
yang lebih dari itu."

1486
01:26:46,743 --> 01:26:48,411
Kurasa aku hanya optimistis.

1487
01:26:48,494 --> 01:26:52,165
Karena kurasa kita bisa mengubah
rupa dan arti media sosial.

1488
01:26:54,250 --> 01:26:57,921
Cara kerja teknologi bukan hukum fisika.
Tidak mustahil diubah.

1489
01:26:58,004 --> 01:27:02,175
Ini adalah pilihan yang dibuat
manusia sepertiku selama ini.

1490
01:27:02,967 --> 01:27:05,345
Manusia bisa mengubah teknologi itu.

1491
01:27:06,971 --> 01:27:09,974
Pertanyaannya sekarang adalah
apakah kita bersedia mengakui

1492
01:27:10,475 --> 01:27:15,438
bahwa hasil buruk itu adalah
wujud produk dari pekerjaan kita.

1493
01:27:21,027 --> 01:27:24,864
Kita membangun ini
dan bertanggung jawab untuk mengubahnya.

1494
01:27:37,168 --> 01:27:38,711
<i>Model ekstraksi perhatian</i>

1495
01:27:38,795 --> 01:27:42,298
<i>bukanlah cara memperlakukan manusia</i>
<i>yang kita mau.</i>

1496
01:27:46,094 --> 01:27:48,137
Ini perasaanku saja atau...

1497
01:27:49,806 --> 01:27:50,848
Pria yang malang.

1498
01:27:51,474 --> 01:27:53,226
<i>Struktur masyarakat yang sehat </i>

1499
01:27:53,309 --> 01:27:56,145
<i>bergantung pada keluarnya kita</i>
<i>dari model bisnis merusak ini.</i>

1500
01:28:04,696 --> 01:28:07,782
<i>Kita bisa menuntut</i>
<i>produk ini dirancang secara manusiawi.</i>

1501
01:28:09,409 --> 01:28:13,204
<i>Kita bisa menuntut untuk tak diperlakukan</i>
<i>sebagai sumber daya yang bisa diekstraksi.</i>

1502
01:28:15,164 --> 01:28:18,459
<i>Tujuannya mungkin bisa berupa</i>
<i>cara kita membuat dunia lebih baik.</i>

1503
01:28:20,461 --> 01:28:23,798
<i>Dalam sejarah, setiap ada perubahan</i>
<i>ke arah yang lebih baik,</i>

1504
01:28:23,881 --> 01:28:26,342
itu karena seseorang maju dan berkata,

1505
01:28:26,426 --> 01:28:28,428
"Ini bodoh. Kita bisa lebih baik."

1506
01:28:29,178 --> 01:28:32,557
<i>Para kritikuslah yang mendorong perbaikan.</i>

1507
01:28:33,141 --> 01:28:35,393
<i>Para kritikuslah</i>
<i>yang benar-benar optimistis.</i>

1508
01:28:38,313 --> 01:28:39,147
Halo.

1509
01:28:46,195 --> 01:28:47,697
Maksudku, itu agak gila, bukan?

1510
01:28:47,780 --> 01:28:51,534
Seolah-olah desain fundamental
dari hal ini...

1511
01:28:52,994 --> 01:28:54,954
tidak berjalan ke arah yang baik.

1512
01:28:55,246 --> 01:28:56,873
Seluruhnya.

1513
01:28:56,956 --> 01:29:00,668
Jadi, terdengar gila jika berkata
kita harus mengubah semua itu,

1514
01:29:01,169 --> 01:29:03,046
tapi itu yang harus kita lakukan.

1515
01:29:04,380 --> 01:29:05,965
Menurutmu, kita akan berhasil?

1516
01:29:07,425 --> 01:29:08,343
Harus.

1517
01:29:21,314 --> 01:29:24,942
Sepertinya kau sangat optimistis.

1518
01:29:26,194 --> 01:29:27,403
Aku terdengar seperti itu?

1519
01:29:27,653 --> 01:29:30,198
Ya, maksudku...
Sulit kupercaya kau terus mengatakan itu

1520
01:29:30,281 --> 01:29:33,326
karena aku berpikir, "Sungguh?
Aku merasa kita menuju distopia.

1521
01:29:33,409 --> 01:29:35,370
Aku merasa kita menuju distopia
dengan cepat

1522
01:29:35,453 --> 01:29:37,914
dan butuh keajaiban
untuk mengeluarkan kita darinya."

1523
01:29:37,997 --> 01:29:40,375
Keajaiban itu, tentu saja,
adalah keinginan bersama.

1524
01:29:41,000 --> 01:29:44,587
Aku merasa optimistis
kita akan menemukan solusi,

1525
01:29:44,670 --> 01:29:47,048
tapi kurasa itu akan butuh waktu lama.

1526
01:29:47,131 --> 01:29:50,385
Karena tak semua orang menganggap ini
sebagai masalah.

1527
01:29:50,468 --> 01:29:55,890
Kurasa salah satu kegagalan besar
dalam teknologi saat ini

1528
01:29:55,973 --> 01:29:58,643
adalah kegagalan kepemimpinan

1529
01:29:58,726 --> 01:30:01,979
dari orang-orang yang tampil
dan melakukan percakapan terbuka

1530
01:30:02,063 --> 01:30:05,900
yang bukan hanya soal hal-hal baik,
tapi juga yang tak sempurna

1531
01:30:05,983 --> 01:30:08,194
agar seseorang bisa membangun
sesuatu yang baru.

1532
01:30:08,486 --> 01:30:10,321
Pada akhirnya,

1533
01:30:10,405 --> 01:30:14,617
mesin ini takkan berubah
sampai ada tekanan publik yang besar.

1534
01:30:14,700 --> 01:30:18,329
Dengan melakukan percakapan ini
dan menyuarakan pendapat kita,

1535
01:30:18,413 --> 01:30:21,082
dalam beberapa kasus
melalui teknologi ini,

1536
01:30:21,165 --> 01:30:24,252
kita bisa mulai mengubah keadaan
dan pembahasan.

1537
01:30:24,335 --> 01:30:27,004
Ini mungkin terdengar aneh,
tapi ini dunia dan komunitasku.

1538
01:30:27,088 --> 01:30:29,674
Aku tak membenci
dan mau merugikan Google atau Facebook.

1539
01:30:29,757 --> 01:30:32,885
Aku hanya ingin mengubah mereka
agar mereka tak menghancurkan dunia.

1540
01:30:32,969 --> 01:30:35,513
Aku sudah menghapus banyak aplikasi
dari ponselku

1541
01:30:35,596 --> 01:30:37,723
yang kurasa hanya membuang waktuku.

1542
01:30:37,807 --> 01:30:40,685
Semua aplikasi media sosial dan berita.

1543
01:30:40,768 --> 01:30:42,520
Aku pun mematikan notifikasi

1544
01:30:42,603 --> 01:30:45,815
pada apa pun yang menggetarkan kakiku
dengan informasi

1545
01:30:45,898 --> 01:30:48,943
yang tak tepat waktu
dan penting bagiku saat ini.

1546
01:30:49,026 --> 01:30:51,279
Karena alasan itu juga,
aku tak mengantongi kue.

1547
01:30:51,362 --> 01:30:53,197
Kurangi jumlah notifikasi yang didapat.

1548
01:30:53,281 --> 01:30:54,449
Matikan notifikasi.

1549
01:30:54,532 --> 01:30:55,950
Mematikan semua notifikasi.

1550
01:30:56,033 --> 01:30:58,536
Aku tak menggunakan Google lagi,
tapi Qwant

1551
01:30:58,619 --> 01:31:01,497
yang tak menyimpan riwayat pencarian kita.

1552
01:31:01,581 --> 01:31:04,417
Jangan pernah menerima
video rekomendasi di YouTube.

1553
01:31:04,500 --> 01:31:07,003
Selalu memilih.
Itu cara melawan yang lain.

1554
01:31:07,295 --> 01:31:12,133
Ada banyak ekstensi Chrome
yang menghapus rekomendasi.

1555
01:31:12,216 --> 01:31:15,636
Aku suka kau merekomendasikan sesuatu
untuk membatalkan yang kau buat.

1556
01:31:15,720 --> 01:31:16,554
Ya.

1557
01:31:16,929 --> 01:31:18,473
Sebelum membagi,

1558
01:31:18,556 --> 01:31:21,684
periksa fakta, pertimbangkan sumbernya,
riset lebih banyak di Google.

1559
01:31:21,767 --> 01:31:25,104
Jika sepertinya itu dirancang
untuk memancing emosi kita,

1560
01:31:25,188 --> 01:31:26,314
mungkin memang begitu.

1561
01:31:26,731 --> 01:31:29,025
Intinya, kita memilih dengan klik.

1562
01:31:29,108 --> 01:31:30,359
Jika mengeklik umpan klik,

1563
01:31:30,443 --> 01:31:33,779
kita menciptakan insentif keuangan
yang melanggengkan sistem yang ada.

1564
01:31:33,863 --> 01:31:37,909
Pastikan kita mendapat beragam informasi
dalam hidupmu sendiri.

1565
01:31:38,117 --> 01:31:40,995
Aku mengikuti orang yang tak kusukai
di Twitter

1566
01:31:41,078 --> 01:31:44,207
karena aku ingin melihat
sudut pandang berbeda.

1567
01:31:44,582 --> 01:31:46,584
Perhatikan banyak orang
di industri teknologi

1568
01:31:46,667 --> 01:31:49,045
tak memberikan perangkat ini
kepada anak mereka.

1569
01:31:49,128 --> 01:31:51,255
Anak-anakku tak menggunakan media sosial.

1570
01:31:51,964 --> 01:31:53,549
Apa itu aturan atau...

1571
01:31:53,633 --> 01:31:54,509
Itu aturannya.

1572
01:31:55,092 --> 01:31:57,845
Kami fanatik soal itu.

1573
01:31:57,929 --> 01:31:59,222
Kami gila.

1574
01:31:59,305 --> 01:32:05,603
Kami tak memberikan anak-anak kami
waktu di depan layar.

1575
01:32:05,686 --> 01:32:08,564
Aku sudah memikirkan
tiga aturan sederhana

1576
01:32:08,648 --> 01:32:12,610
yang mempermudah hidup keluarga
dan itu dibenarkan oleh penelitian.

1577
01:32:12,693 --> 01:32:15,571
Aturan pertama adalah
tak ada gawai di kamar tidur

1578
01:32:15,655 --> 01:32:17,281
pada waktu tetap setiap malam.

1579
01:32:17,365 --> 01:32:20,535
Apa pun waktunya, 30 menit sebelum tidur,
semua gawai keluar.

1580
01:32:20,618 --> 01:32:24,038
Aturan kedua adalah tak ada media sosial
sampai SMA.

1581
01:32:24,121 --> 01:32:26,374
Secara pribadi,
kurasa usianya harus 16 tahun.

1582
01:32:26,457 --> 01:32:28,960
SMP sudah cukup sulit.
Jadi, jauhkan hingga SMA.

1583
01:32:29,043 --> 01:32:32,964
Aturan ketiga adalah menyusun
anggaran waktu dengan anak-anak kita.

1584
01:32:33,047 --> 01:32:34,799
Jika bicara dengan mereka dan berkata,

1585
01:32:34,882 --> 01:32:37,802
"Berapa jam sehari
kau mau menggunakan gawaimu?

1586
01:32:37,885 --> 01:32:39,637
Menurutmu, berapa durasi yang sesuai,"

1587
01:32:39,720 --> 01:32:41,597
jawaban mereka sering kali masuk akal.

1588
01:32:42,056 --> 01:32:44,642
Dengar, aku tahu betul

1589
01:32:44,725 --> 01:32:48,563
aku tak akan membuat semua orang
menghapus akun media sosial mereka,

1590
01:32:48,646 --> 01:32:50,439
tapi kurasa ada beberapa orang

1591
01:32:50,523 --> 01:32:54,485
dan membuat beberapa orang
menghapus akun mereka itu sangat penting.

1592
01:32:54,569 --> 01:32:58,406
Alasannya adalah itu menciptakan ruang
untuk percakapan

1593
01:32:58,489 --> 01:33:00,908
karena aku ingin ada cukup banyak orang
di masyarakat

1594
01:33:00,992 --> 01:33:05,079
yang bebas dari mesin manipulasi
untuk melakukan percakapan sosial

1595
01:33:05,162 --> 01:33:07,540
yang tak dibatasi oleh mesin manipulasi.

1596
01:33:07,623 --> 01:33:10,126
Jadi, lakukanlah! Keluar dari sistem.

1597
01:33:10,334 --> 01:33:12,670
Ya, hapuslah. Lepaskan benda bodoh itu.

1598
01:33:13,546 --> 01:33:16,507
Dunia ini indah.
Lihat, di luar sana bagus.

1599
01:33:18,467 --> 01:33:19,969
IKUTI KAMI DI MEDIA SOSIAL!

1600
01:33:20,052 --> 01:33:21,887
HANYA BERCANDA

1601
01:33:21,971 --> 01:33:27,476
AYO MEMBAHAS CARA MEMPERBAIKINYA
THESOCIALDILEMMA.COM

1602
01:33:32,064 --> 01:33:34,609
Terjemahan subtitle oleh Alphino Fajar



