1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:19,978 --> 00:00:24,774
"Setiap yang besar memasuki
kehidupan manusia dengan sumpahan."

4
00:00:24,858 --> 00:00:27,861
SOPHOCLES

5
00:00:31,156 --> 00:00:34,242
Ya, apa kata awak teruskan?
Duduk dan selesakan diri.

6
00:00:37,579 --> 00:00:38,580
Awak okey? Baik.

7
00:00:38,663 --> 00:00:39,497
Ya.

8
00:00:43,043 --> 00:00:45,045
PROJEK MEDIA SOSIAL
ADEGAN - JEFF SEIBERT

9
00:00:46,880 --> 00:00:48,923
Mahu mula dengan perkenalkan diri?

10
00:00:50,467 --> 00:00:53,344
Helo, dunia. Bailey. Cubaan tiga.

11
00:00:53,970 --> 00:00:56,056
- Awak okey?
- Ini paling teruk.

12
00:00:57,515 --> 00:00:58,558
Saya tak suka ini.

13
00:00:59,851 --> 00:01:02,228
Saya bekerja di Facebook
pada 2011 dan 2012.

14
00:01:02,312 --> 00:01:05,190
Saya antara pekerja terawal di Instagram.

15
00:01:05,273 --> 00:01:08,693
<i>Saya pernah bekerja di Google, YouTube.</i>

16
00:01:08,777 --> 00:01:11,696
<i>Apple, Google, Twitter, Palm.</i>

17
00:01:12,739 --> 00:01:15,533
Saya bantu mulakan Mozilla Labs
kemudian Firefox.

18
00:01:15,617 --> 00:01:17,994
Adakah kita dah merakam? Semua...

19
00:01:18,078 --> 00:01:18,953
Bagus.

20
00:01:21,206 --> 00:01:22,665
Saya pernah bekerja di Twitter.

21
00:01:22,749 --> 00:01:26,169
Jawatan terakhir saya
Naib Presiden Kanan Kejuruteraan.

22
00:01:27,462 --> 00:01:29,255
<i>Saya dahulu Presiden Pinterest.</i>

23
00:01:29,339 --> 00:01:32,717
Sebelum itu, saya Pengarah Pengewangan

24
00:01:32,801 --> 00:01:34,260
di Facebook selama lima tahun.

25
00:01:34,344 --> 00:01:37,972
Ketika di Twitter, saya
mengendalikan platform pembangun

26
00:01:38,056 --> 00:01:40,225
kemudian saya jadi Ketua Produk Pengguna.

27
00:01:40,308 --> 00:01:44,270
Saya pencipta bersama
Google Drive, Gmail Chat

28
00:01:44,354 --> 00:01:46,773
Facebook Pages
dan butang "Like" Facebook.

29
00:01:47,440 --> 00:01:50,777
Sebab inilah saya habiskan lapan bulan

30
00:01:50,860 --> 00:01:52,779
berbincang dengan peguam.

31
00:01:54,030 --> 00:01:55,406
Ini menakutkan saya.

32
00:01:58,409 --> 00:02:02,914
Ketika di situ, saya rasa pada dasarnya
ia suatu kuasa untuk kebaikan.

33
00:02:03,373 --> 00:02:05,375
Saya tak rasa begitu lagi.

34
00:02:05,458 --> 00:02:10,588
Saya berhenti dari Google
pada Jun 2017 disebabkan isu etika.

35
00:02:10,672 --> 00:02:14,134
Bukan saja di Google tapi dalam
industri ini secara keseluruhan.

36
00:02:14,217 --> 00:02:15,385
Saya sangat bimbang.

37
00:02:16,719 --> 00:02:17,679
Sangat bimbang.

38
00:02:19,097 --> 00:02:21,808
Zaman sekarang, mudah untuk lupa hakikat

39
00:02:21,891 --> 00:02:27,814
bahawa alat ini telah mencipta
beberapa perkara indah di dunia.

40
00:02:27,897 --> 00:02:31,943
Ia telah menyatukan keluarga yang
terpisah, menemukan penderma organ.

41
00:02:32,026 --> 00:02:35,613
Terdapat perubahan yang bermakna
dan sistemik

42
00:02:35,697 --> 00:02:37,866
berlaku di seluruh dunia

43
00:02:37,949 --> 00:02:40,451
kerana platform ini
yang dahulunya positif.

44
00:02:40,827 --> 00:02:44,539
Kita naif tentang hal yang ada sebaliknya.

45
00:02:45,540 --> 00:02:48,585
Anda perkenalkan platform ini
dan ia bina kehidupan sendiri.

46
00:02:48,668 --> 00:02:52,005
Cara ia digunakan berbeza
daripada jangkaan anda.

47
00:02:52,088 --> 00:02:56,509
Saya percaya, tiada sesiapa pun
mahukan akibat-akibat yang begini.

48
00:02:56,593 --> 00:02:59,554
Tiada seorang manusia jahat. Tiada.

49
00:03:01,639 --> 00:03:03,600
Jadi, apa masalahnya?

50
00:03:09,230 --> 00:03:11,357
Ada masalahkah dan apa masalahnya?

51
00:03:18,406 --> 00:03:20,158
Susah nak beri satu...

52
00:03:20,241 --> 00:03:22,118
Saya cuba nak ringkaskan.

53
00:03:22,577 --> 00:03:23,578
Apa masalahnya?

54
00:03:28,208 --> 00:03:32,253
DOKUMENTARI ASLI NETFLIX

55
00:03:33,588 --> 00:03:35,340
<i>Walaupun berdepan banyak kritikan</i>

56
00:03:35,423 --> 00:03:37,675
<i>syarikat teknologi besar</i>
<i>jadi semakin besar.</i>

57
00:03:37,759 --> 00:03:40,929
<i>Seluruh industri teknologi</i>
<i>di bawah tahap pengawasan baharu.</i>

58
00:03:41,012 --> 00:03:43,806
<i>Kajian terbaharu mendedahkan hubungan</i>

59
00:03:43,890 --> 00:03:46,142
<i>antara kesihatan mental</i>
<i>dan penggunaan media sosial.</i>

60
00:03:46,226 --> 00:03:48,728
<i>Hadir untuk membincangkan</i>
<i>kajian terbaharu...</i>

61
00:03:49,187 --> 00:03:51,397
<i>...berterusan tanpa langsung</i>
<i>mendapat liputan.</i>

62
00:03:51,481 --> 00:03:54,108
<i>Berpuluh-puluh juta warga Amerika ketagih</i>

63
00:03:54,192 --> 00:03:56,319
<i>dengan alat eletronik merka,</i>

64
00:03:56,402 --> 00:03:59,364
<i>Lebih buruk, anda boleh benar-benar</i>
<i>mengasingkan diri...</i>

65
00:03:59,447 --> 00:04:00,698
RAKAN TAG ANDA DALAM GAMBAR

66
00:04:00,782 --> 00:04:02,742
...dalam kepompong,
semua disebabkan teknologi.

67
00:04:02,825 --> 00:04:04,577
Berita palsu semakin menjadi-jadi

68
00:04:04,661 --> 00:04:06,788
dan mengancam masyarakat di seluruh dunia.

69
00:04:06,871 --> 00:04:10,333
Kami tak menjangka semua ini
ketika mencipta Twitter 12 tahun lalu.

70
00:04:10,416 --> 00:04:12,502
Pegawai memaklumkan tiada sebab kukuh

71
00:04:12,585 --> 00:04:14,754
serangan siber Rusia akan berhenti.

72
00:04:14,837 --> 00:04:18,132
YouTube dipaksa fokus
untuk membersihkan laman itu.

73
00:04:18,216 --> 00:04:21,552
<i>TikTok, jika anda bercakap</i>
<i>dengan mana-mana remaja di luar sana</i>

74
00:04:21,636 --> 00:04:24,013
<i>tak mungkin mereka akan padam</i>
<i>aplikasi ini....</i>

75
00:04:24,097 --> 00:04:26,349
Isla, boleh tolong sediakan meja?

76
00:04:26,432 --> 00:04:27,517
<i>Terdapat soalan serius</i>

77
00:04:27,600 --> 00:04:29,978
<i>sama ada media sosial</i>
<i>menyebabkan anak anda murung.</i>

78
00:04:30,061 --> 00:04:32,105
Isla, boleh tolong hidang makanan?

79
00:04:32,188 --> 00:04:35,316
<i>Prosedur kosmetik ini</i>
<i>sangat terkenal di kalangan remaja,</i>

80
00:04:35,400 --> 00:04:37,902
pakar bedah plastik menamakan
sindrom baharu padanya,

81
00:04:37,986 --> 00:04:40,822
Dismorphia Snapchat,
dengan pesakit muda mahukan pembedahan

82
00:04:40,905 --> 00:04:43,741
supaya mirip diri mereka
dalam penapis swafoto.

83
00:04:43,825 --> 00:04:45,910
Masih tak faham
kenapa mak beri dia telefon.

84
00:04:45,994 --> 00:04:47,537
Apa mak nak buat?

85
00:04:47,620 --> 00:04:49,580
Semua budak-budak di kelasnya ada.

86
00:04:50,164 --> 00:04:51,165
Dia baru 11 tahun.

87
00:04:51,249 --> 00:04:52,959
Cass, tiada siapa paksa awak ada.

88
00:04:53,042 --> 00:04:55,086
Awak boleh kekal tak berhubung
selama mana mahu.

89
00:04:55,169 --> 00:04:59,340
Saya ada telefon bimbit.
Saya layari Internet sekarang.

90
00:04:59,424 --> 00:05:03,094
Lagipun, itu bukan hubungan sebenar.
Ia hanya mengarut.

91
00:05:03,177 --> 00:05:06,514
Pengawasan kapitalisme
telah membentuk politik dan budaya kita

92
00:05:06,597 --> 00:05:08,308
dalam cara tak dapat dilihat ramai.

93
00:05:08,391 --> 00:05:10,101
<i>ISIS beri ilham kepada</i>
<i>pengikut dalam talian</i>

94
00:05:10,184 --> 00:05:12,812
<i>dan kini keagungan kulit putih</i>
<i>bertindak serupa.</i>

95
00:05:12,895 --> 00:05:14,147
Baru-baru ini di India,

96
00:05:14,230 --> 00:05:17,442
<i>kumpulan perusuh Internet</i>
<i>membunuh 12 orang termasuk lima...</i>

97
00:05:17,525 --> 00:05:20,361
<i>Ini bukan saja berita palsu,</i>
<i>ia berita palsu dengan akibat.</i>

98
00:05:20,445 --> 00:05:24,073
<i>Bagaimana mahu tangani wabak</i>
<i>di zaman berita palsu?</i>

99
00:05:24,157 --> 00:05:26,993
Bolehkah dapat virus korona
dengan makan makanan Cina?

100
00:05:27,535 --> 00:05:32,540
Kita telah beralih daripada zaman maklumat
kepada zaman berita palsu.

101
00:05:32,623 --> 00:05:34,667
Demokrasi kita diserang.

102
00:05:34,751 --> 00:05:39,005
Saya kata, "Alat yang
telah dicipta hari ini mula

103
00:05:39,088 --> 00:05:41,799
mengikis struktur sosial
cara masyarakat berfungsi."

104
00:06:00,151 --> 00:06:03,446
Asa mengalu-alukan komen.
Kami mainkan video.

105
00:06:04,197 --> 00:06:07,325
Kemudian,
"Hadirin sekalian, Tristan Harris."

106
00:06:07,408 --> 00:06:08,826
- Baik.
- Bagus.

107
00:06:08,951 --> 00:06:12,038
Saya naik, dan...

108
00:06:12,121 --> 00:06:13,748
BERPERIKEMANUSIAAN
AGENDA BAHARU UNTUK TEKNOLOGI

109
00:06:13,831 --> 00:06:16,042
Saya akan kata,
"Terima kasih kerana hadir."

110
00:06:17,919 --> 00:06:22,048
Hari ini, saya akan bercakap tentang
agenda baharu untuk teknologi,

111
00:06:22,131 --> 00:06:25,468
dan sebab kami mahu membuatnya,
kerana jika anda tanya orang,

112
00:06:25,551 --> 00:06:27,804
"Apa silap industri teknologi sekarang?"

113
00:06:28,346 --> 00:06:31,641
terdapat rungutan dan skandal,

114
00:06:31,724 --> 00:06:33,893
"mereka curi data kami,"
ketagihan teknologi

115
00:06:33,976 --> 00:06:35,978
berita palsu, polarisasi,

116
00:06:36,062 --> 00:06:37,688
dan sesetengah pilihan raya diganggu.

117
00:06:38,189 --> 00:06:41,609
Tapi adakah sesuatu
di bawah semua masalah ini

118
00:06:41,692 --> 00:06:44,654
yang menyebabkan semua ini
berlaku serentak?

119
00:06:46,447 --> 00:06:48,408
- Ini rasa bagus?
- Sangat bagus? Ya.

120
00:06:50,827 --> 00:06:52,954
Saya mahu orang nampak...

121
00:06:53,037 --> 00:06:55,206
Ada masalah sedang berlaku
dalam industri teknologi,

122
00:06:55,289 --> 00:07:00,211
ia tiada nama dan
ada kaitan dengan satu sumber.

123
00:07:05,091 --> 00:07:09,387
<i>Apabila anda pandang sekeliling,</i>
<i>anda rasa dunia ini kucar-kacir.</i>

124
00:07:12,765 --> 00:07:15,143
Anda perlu tanya diri,
adakah ini normal?

125
00:07:16,102 --> 00:07:18,771
Atau adakah kita semua disihir?

126
00:07:22,316 --> 00:07:25,153
TRISTAN HARRIS
BEKAS AHLI ETIKA REKA BENTUK GOOGLE

127
00:07:25,236 --> 00:07:27,905
PENGASAS BERSAMA
PUSAT TEKNOLOGI BERPERIKEMANUSIAAN

128
00:07:27,989 --> 00:07:30,491
<i>Saya harap lebih ramai</i>
<i>faham cara ia berfungsi</i>

129
00:07:30,575 --> 00:07:34,036
<i>kerana ia tak sepatutnya</i>
<i>hanya diketahui industri teknologi.</i>

130
00:07:34,120 --> 00:07:36,289
<i>Ia sepatutnya diketahui semua.</i>

131
00:07:47,383 --> 00:07:48,301
- Helo!
- Hai.

132
00:07:48,843 --> 00:07:50,595
- Tristan. Selamat berkenalan.
- Tristan?

133
00:07:50,678 --> 00:07:51,721
- Ya.
- Bagus.

134
00:07:53,181 --> 00:07:55,933
Tristan Harris ialah
bekas ahli etika reka bentuk Google

135
00:07:56,017 --> 00:07:59,353
dan dikenali sebagai kesedaran terhampir
yang Silicon Valley ada.

136
00:07:59,437 --> 00:08:00,730
<i>Dia meminta industri teknologi</i>

137
00:08:00,813 --> 00:08:04,192
<i>membawa apa yang dipanggilnya</i>
<i>"etika reka bentuk'" kepada produk.</i>

138
00:08:04,275 --> 00:08:06,903
<i>Jarang orang dalam teknologi</i>
<i>begitu berterus-terang</i>

139
00:08:06,986 --> 00:08:10,198
<i>tapi Tristan Harris percaya</i>
<i>seseorang perlu lakukannya.</i>

140
00:08:11,324 --> 00:08:12,700
<i>Ketika saya di Google,</i>

141
00:08:12,783 --> 00:08:16,037
saya dalam pasukan Gmail dan
saya mula rasa lesu,

142
00:08:16,120 --> 00:08:18,372
sebab kami banyak bincang tentang

143
00:08:19,457 --> 00:08:23,169
bagaimana rupa peti masuk
dan apa warnanya.

144
00:08:23,252 --> 00:08:25,880
Saya secara peribadi ketagih dengan e-mel

145
00:08:25,963 --> 00:08:27,632
dan hairan sungguh

146
00:08:27,715 --> 00:08:31,511
yang tiada seorang pun di Gmail
mahu jadikannya kurang ketagih.

147
00:08:31,594 --> 00:08:34,514
"Ada orang lain fikir tentang ini?

148
00:08:34,597 --> 00:08:36,390
Saya tak dengar sesiapa
bercakap tentangnya."

149
00:08:36,474 --> 00:08:41,229
Saya rasa kecewa dengan
industri teknologi secara keseluruhan

150
00:08:41,312 --> 00:08:43,147
kerana seolah-olah hilang tujuan.

151
00:08:46,817 --> 00:08:49,820
Saya bersusah-payah cuba memikirkan

152
00:08:49,904 --> 00:08:52,573
cara kami boleh ubahnya dari dalam.

153
00:08:55,201 --> 00:08:59,497
Ketika itulah saya buat pembentangan
untuk ajak orang bertindak.

154
00:09:00,998 --> 00:09:04,961
Setiap hari saya balik dan
membuatnya beberapa jam setiap malam.

155
00:09:06,170 --> 00:09:11,884
Pada dasarnya,
tak pernah dalam sejarah 50 pereka bentuk

156
00:09:12,426 --> 00:09:15,263
berkulit putih berusia 20 ke 35 tahun
di California

157
00:09:15,888 --> 00:09:19,725
membuat keputusan yang
memberi kesan kepada dua bilion orang.

158
00:09:21,018 --> 00:09:24,438
Dua bilion orang akan mempunyai
pemikiran yang tak sengaja dimiliki

159
00:09:24,522 --> 00:09:28,401
kerana pereka bentuk Google kata,
"Begini cara pemberitahuan berfungsi

160
00:09:28,484 --> 00:09:30,778
pada skrin yang anda lihat setiap pagi."

161
00:09:30,861 --> 00:09:35,283
Kami mempunyai tanggungjawab moral
sebagai Google untuk selesaikannya.

162
00:09:36,075 --> 00:09:37,743
Saya hantar pembentangan ini

163
00:09:37,827 --> 00:09:41,789
kepada 15 ke 20 rakan sekerja
paling rapat saya di Google.

164
00:09:41,872 --> 00:09:44,959
Saya sangat bimbang tentangnya.
Tak pasti dengan penerimaan orang.

165
00:09:46,460 --> 00:09:48,045
Apabila pergi kerja esoknya,

166
00:09:48,129 --> 00:09:50,464
kebanyakan komputer riba
memaparkan pembentangan itu.

167
00:09:50,548 --> 00:09:52,049
PERHATIAN

168
00:09:52,133 --> 00:09:54,552
Selepas itu,
terdapat 400 penonton serentak

169
00:09:54,635 --> 00:09:56,053
dan jumlahnya bertambah.

170
00:09:56,137 --> 00:09:58,097
Saya terima e-mel
dari ramai pekerja syarikat.

171
00:09:58,180 --> 00:10:00,266
Pekerja di setiap jabatan kata,

172
00:10:00,349 --> 00:10:02,852
"Saya sangat setuju,
saya lihatnya beri kesan kepada anak,

173
00:10:02,935 --> 00:10:06,856
saya lihatnya beri kesan kepada
orang sekeliling. Kita perlu bertindak."

174
00:10:07,481 --> 00:10:10,818
Saya rasa seolah-olah saya
memulakan revolusi.

175
00:10:11,861 --> 00:10:15,197
Saya dapat tahu Larry Page diberitahu
tentang pembentangan ini

176
00:10:15,281 --> 00:10:17,116
dalam tiga mesyuarat berasingan hari itu.

177
00:10:17,950 --> 00:10:20,369
Ia mencipta momen budaya

178
00:10:20,870 --> 00:10:23,205
yang Google perlu ambil serius.

179
00:10:26,000 --> 00:10:27,460
Kemudian,

180
00:10:28,336 --> 00:10:29,587
senyap.

181
00:10:34,300 --> 00:10:36,135
Semua orang pada 2006...

182
00:10:37,219 --> 00:10:39,221
termasuk kami semua di Facebook,

183
00:10:39,305 --> 00:10:43,351
sangat mengagumi Google
dan apa Google dah bina,

184
00:10:43,476 --> 00:10:47,396
iaitu perkhidmatan yang sangat berguna.

185
00:10:47,480 --> 00:10:51,442
yang memberi, sejauh yang kami lihat,
banyak kebaikan pada dunia,

186
00:10:51,525 --> 00:10:54,695
dan mereka mencipta
keuntungan yang banyak.

187
00:10:55,404 --> 00:11:00,034
Kami sangat mencemburuinya
dan bagi kami ia nampak sangat elegen

188
00:11:00,826 --> 00:11:02,161
dan sangat sempurna.

189
00:11:02,953 --> 00:11:05,122
Facebook ketika itu dah dua tahun wujud

190
00:11:05,873 --> 00:11:08,376
dan saya diambil bekerja
untuk memikirkan

191
00:11:08,459 --> 00:11:10,586
apa model perniagaan bagi syarikat.

192
00:11:10,670 --> 00:11:13,422
Saya pengarah kengewangan.
Kerja saya adalah

193
00:11:13,506 --> 00:11:17,051
"Awak orang yang akan fikirkan
cara jana wang daripadanya."

194
00:11:17,134 --> 00:11:19,804
Ramai orang yang dah buat banyak kerja

195
00:11:19,887 --> 00:11:25,476
tapi saya jelasnya antara orang yang
dipertanggungjawabkan untuk...

196
00:11:26,769 --> 00:11:28,688
pertamanya, kami perlu buat duit

197
00:11:29,313 --> 00:11:33,651
dan saya rasa model pengiklanan ini
adalah cara paling sesuai.

198
00:11:43,077 --> 00:11:44,453
Apa video mak baru hantar?

199
00:11:44,537 --> 00:11:47,873
Video rancangan berbual, bagus juga.
Lelaki itu bijak.

200
00:11:47,957 --> 00:11:50,584
Dia bercakap tentang padam
media sosial, awak perlu buat.

201
00:11:50,668 --> 00:11:52,878
Saya mungkin perlu sekat e-mel mak.

202
00:11:52,962 --> 00:11:56,090
Saya tak faham pun apa mak cakap.
Mak lebih teruk berbanding saya.

203
00:11:56,173 --> 00:11:58,592
- Tak, mak hanya guna nak cari resipi.
- Betul dan kerja.

204
00:11:58,676 --> 00:12:00,511
- Dan video bersenam.
- Dan periksa kita.

205
00:12:00,594 --> 00:12:03,013
Dan semua orang yang dia pernah jumpa
dalam hidupnya.

206
00:12:04,932 --> 00:12:07,893
<i>Jika anda menatal suapan media sosial anda</i>

207
00:12:07,977 --> 00:12:11,731
<i>ketika menonton kami, anda perlu</i>
<i>letak telefon dan dengar sini,</i>

208
00:12:11,814 --> 00:12:14,817
kerana tetamu kami seterusnya
telah tulis buku hebat

209
00:12:14,900 --> 00:12:18,112
tentang betapa ia memusnahkan hidup kita.

210
00:12:18,195 --> 00:12:19,447
Dipersilakan penulis

211
00:12:19,530 --> 00:12:24,452
<i>Ten Arguments For Deleting</i>
<i>Your Social Media Accounts Right Now,</i>

212
00:12:24,535 --> 00:12:25,786
Jaron Lanier.

213
00:12:27,997 --> 00:12:31,834
<i>Syarikat seperti Google dan Facebook</i>
<i>adalah antara yang terkaya</i>

214
00:12:31,917 --> 00:12:33,544
dan paling berjaya dalam sejarah.

215
00:12:34,295 --> 00:12:36,839
Pekerja mereka tak ramai.

216
00:12:36,922 --> 00:12:40,468
Mereka hanya ada komputer gergasi
yang menjana wang, betul?

217
00:12:41,510 --> 00:12:45,222
Jadi, mereka dibayar untuk apa?
Itu soalan yang sangat penting.

218
00:12:47,308 --> 00:12:49,977
<i>Saya telah melabur dalam teknologi</i>
<i>selama 35 tahun.</i>

219
00:12:51,020 --> 00:12:54,356
<i>Pada 50 tahun pertama Silicon Valley,</i>
<i>industri ini hasilkan produk</i>...

220
00:12:54,440 --> 00:12:58,402
perkakasan, perisian, jualnya kepada
pelanggan, perniagaan yang mudah.

221
00:12:58,486 --> 00:13:01,447
Selama 10 tahun lepas,
syarikat terbesar di Silicon Valley

222
00:13:01,530 --> 00:13:03,866
berada dalam perniagaan
menjual pengguna mereka.

223
00:13:03,949 --> 00:13:05,910
Agak lapuk untuk dikatakan sekarang

224
00:13:05,993 --> 00:13:09,205
tapi kerana kita tak bayar untuk
produk yang kita guna,

225
00:13:09,288 --> 00:13:12,166
pengiklan yang bayar produk
yang kita guna.

226
00:13:12,249 --> 00:13:14,084
Pengiklan ialah pelanggan.

227
00:13:14,710 --> 00:13:16,086
Kita ialah bahan yang dijual.

228
00:13:16,170 --> 00:13:17,630
Secara mudahnya,

229
00:13:17,713 --> 00:13:21,592
"Jika anda tak bayar untuk produk itu,
maka andalah produknya."

230
00:13:21,675 --> 00:13:23,302
ANDALAH PRODUKNYA

231
00:13:23,385 --> 00:13:27,223
Kebanyakan orang fikir,
"Google hanya laman web carian

232
00:13:27,306 --> 00:13:29,850
dan Facebook hanya tempat
lihat aktiviti kawan-kawan

233
00:13:29,934 --> 00:13:31,101
dan lihat gambar mereka."

234
00:13:31,185 --> 00:13:35,481
Tapi apa yang mereka tak sedar ialah
mereka bersaing untuk perhatian.

235
00:13:36,524 --> 00:13:41,111
Facebook, Snapchat,
Twitter, Instagram, YouTube,

236
00:13:41,195 --> 00:13:45,908
model perniagaan syarikat begini adalah
mengekalkan keterlibatan orang pada skrin.

237
00:13:45,991 --> 00:13:49,537
Mari fikir cara dapatkan
sebanyak mungkin perhatian

238
00:13:49,620 --> 00:13:50,955
daripada pengguna ini.

239
00:13:51,038 --> 00:13:53,791
Berapa banyak masa
kami boleh buat anda peruntukkan?

240
00:13:53,874 --> 00:13:56,961
Berapa banyak hidup anda
kami boleh buat anda beri pada kami?

241
00:13:58,712 --> 00:14:01,090
<i>Apabila anda fikir tentang</i>
<i>cara syarikat ini bekerja</i>,

242
00:14:01,173 --> 00:14:02,424
<i>ia mula masuk akal.</i>

243
00:14:03,050 --> 00:14:06,095
Banyak perkhidmatan di Internet
kita fikir percuma.

244
00:14:06,178 --> 00:14:09,473
Tapi ia tak percuma.
Pengiklan membayarnya.

245
00:14:09,557 --> 00:14:11,559
Kenapa pengiklan bayar syarikat ini?

246
00:14:11,642 --> 00:14:14,687
Sebagai tukaran untuk
menunjukkan iklan mereka kepada kita.

247
00:14:14,770 --> 00:14:18,357
Kitalah produk. Perhatian kita adalah
produk yang dijual kepada pengiklan.

248
00:14:18,440 --> 00:14:20,442
Itu terlalu ringkas.

249
00:14:20,526 --> 00:14:23,654
Perubahan sedikit demi sedikit
yang tak dapat dilihat

250
00:14:23,737 --> 00:14:26,282
dari segi sikap dan tanggapan kita,
itulah produknya.

251
00:14:26,365 --> 00:14:27,575
PERUBAHAN
SIKAP DAN TANGGAPAN

252
00:14:27,658 --> 00:14:30,244
Itu produknya.
Satunya-satunya produk yang mungkin.

253
00:14:30,327 --> 00:14:34,081
Tiada barang lain, yang mungkin
boleh dipanggil produk.

254
00:14:34,164 --> 00:14:37,251
Itu saja yang ada untuk mereka jana wang.

255
00:14:37,334 --> 00:14:39,253
Mengubah tindakan anda,

256
00:14:39,336 --> 00:14:41,714
pemikiran anda, diri anda.

257
00:14:42,631 --> 00:14:45,301
Perubahan yang beransur-ansur. Sedikit.

258
00:14:45,384 --> 00:14:48,971
Jika awak jumpa seseorang dan kata,
"Beri saya 10 juta dolar

259
00:14:49,054 --> 00:14:54,310
dan saya akan ubah dunia satu peratus
dalam arah yang awak mahu ia berubah..."

260
00:14:54,894 --> 00:14:58,188
Dunia ini! Ia boleh jadi mengagumkan
dan nilainya tinggi.

261
00:14:59,315 --> 00:15:00,149
Okey.

262
00:15:00,691 --> 00:15:04,570
<i>Inilah impian setiap perniagaan,</i>

263
00:15:04,653 --> 00:15:10,910
untuk mendapat jaminan yang
jika iklannya diletak, ia akan berjaya.

264
00:15:10,993 --> 00:15:13,996
Itu perniagaan mereka.
Mereka menjual kepastian.

265
00:15:14,079 --> 00:15:14,914
KEPASTIAN

266
00:15:14,997 --> 00:15:17,625
Untuk berjaya dalam perniagaan itu,

267
00:15:17,708 --> 00:15:19,585
perlu ada ramalan yang hebat.

268
00:15:19,668 --> 00:15:20,544
RAMALAN HEBAT

269
00:15:20,628 --> 00:15:24,173
Ramalan hebat bermula
dengan satu imperatif.

270
00:15:25,215 --> 00:15:26,926
Anda perlu banyak data.

271
00:15:27,009 --> 00:15:29,053
DATA

272
00:15:29,136 --> 00:15:31,555
Ramai memanggilnya pengawasan kapitalisme.

273
00:15:31,639 --> 00:15:34,350
Kapitalisme jana keuntungan
daripada pengesanan tak terhingga

274
00:15:34,433 --> 00:15:38,062
ke mana saja sesiapa pergi
oleh syarikat teknologi besar

275
00:15:38,145 --> 00:15:40,356
yang model perniagaannya
adalah memastikan

276
00:15:40,439 --> 00:15:42,858
pengiklan boleh jadi seberjaya mungkin.

277
00:15:42,942 --> 00:15:45,569
Ini jenis pusat pasaran baharu sekarang.

278
00:15:45,653 --> 00:15:48,072
Pusat pasaran yang tak pernah wujud dulu.

279
00:15:48,822 --> 00:15:55,371
Ia juga pusat pasaran yang khusus
memperdagangkan niaga hadapan manusia.

280
00:15:56,080 --> 00:16:01,585
Sama seperti pasaran yang memperdagangkan
niaga hadapan perut khinzir atau minyak.

281
00:16:02,169 --> 00:16:07,591
Kita kini ada pasaran yang memperdagangkan
niaga hadapan manusia secara besar-besaran

282
00:16:08,175 --> 00:16:13,472
dan pasaran itu telah menjana
bertrilion-trilion dolar

283
00:16:14,014 --> 00:16:19,269
yang menjadikan syarikat Internet
syarikat terkaya

284
00:16:19,353 --> 00:16:22,356
dalam sejarah manusia.

285
00:16:27,444 --> 00:16:31,073
<i>Saya mahu orang tahu yang</i>
<i>apa saja mereka buat dalam talian</i>

286
00:16:31,156 --> 00:16:34,326
<i>adalah diperhatikan, dijejak dan dinilai.</i>

287
00:16:35,035 --> 00:16:39,623
Setiap tindakan anda diawasi
dengan teliti dan direkodkan.

288
00:16:39,707 --> 00:16:43,836
Imej apa yang anda berhenti dan lihat,
berapa lama anda melihatnya.

289
00:16:43,919 --> 00:16:45,796
Serius, selama mana anda melihatnya.

290
00:16:45,879 --> 00:16:47,548
NAVIYA_R
MASA PENGLIBATAN

291
00:16:47,631 --> 00:16:49,341
RYAN_M
MASA PENGLIBATAN

292
00:16:49,425 --> 00:16:50,426
WREN_F
MASA PENGLIBATAN

293
00:16:50,509 --> 00:16:53,804
Mereka tahu bila orang sunyi,
mereka tahu bila orang murung.

294
00:16:53,887 --> 00:16:57,099
Mereka tahu orang sedang lihat
gambar bekas kekasih.

295
00:16:57,182 --> 00:17:00,853
Mereka tahu apa anda buat lewat malam,
mereka tahu semua.

296
00:17:01,270 --> 00:17:03,230
Sama ada anda introvert atau ekstrovert,

297
00:17:03,313 --> 00:17:06,817
jenis neurosis anda
dan jenis personaliti anda.

298
00:17:08,193 --> 00:17:11,613
Mereka mempunyai lebih banyak
maklumat tentang kita

299
00:17:11,697 --> 00:17:14,324
berbanding yang pernah dibayangkan
dalam sejarah manusia.

300
00:17:14,950 --> 00:17:16,368
Ia tak pernah berlaku.

301
00:17:18,579 --> 00:17:22,791
Semua data ini yang kita beri
dengan banyak sepanjang masa

302
00:17:22,875 --> 00:17:26,754
disuap ke dalam sistem-sistem
yang langsung tiada kawalan manusia

303
00:17:27,463 --> 00:17:30,883
dan ramalannya akan jadi semakin baik

304
00:17:30,966 --> 00:17:33,552
tentang tindakan dan identiti diri kita.

305
00:17:34,887 --> 00:17:36,346
DISYORKAN UNTUK ANDA

306
00:17:36,430 --> 00:17:39,558
<i>Ramai orang salah faham yang</i>
<i>data kita dijual.</i>

307
00:17:40,350 --> 00:17:43,187
Facebook tak berminat untuk jual data.

308
00:17:45,522 --> 00:17:47,107
<i>Apa mereka buat dengan data itu?</i>

309
00:17:51,070 --> 00:17:54,490
<i>Mereka bina modul yang</i>
<i>meramalkan tindakan kita.</i>

310
00:17:54,573 --> 00:17:57,618
<i>Sesiapa yang ada model terbaik, menang.</i>

311
00:18:02,706 --> 00:18:04,041
Kelajuan menatal semakin perlahan.

312
00:18:04,124 --> 00:18:07,002
Hampir penghujung purata masa skrin,
kurangkan iklan.

313
00:18:07,086 --> 00:18:08,337
Naikkan semula keluarga dan rakan.

314
00:18:09,671 --> 00:18:11,340
<i>Di sebalik skrin</i>

315
00:18:11,423 --> 00:18:15,469
<i>seolah-olah mereka ada model avatar kita.</i>

316
00:18:16,845 --> 00:18:18,180
<i>Semua yang kita buat,</i>

317
00:18:18,263 --> 00:18:19,473
semua klik yang kita buat

318
00:18:19,556 --> 00:18:21,642
semua video yang kita tonton,
semua sukaan,

319
00:18:21,725 --> 00:18:25,354
itu semua dibawa untuk membina
model yang lebih tepat.

320
00:18:25,437 --> 00:18:27,481
Model itu, sebaik saja anda memilikinya,

321
00:18:27,564 --> 00:18:29,858
anda boleh ramal pelbagai perkara
yang orang itu buat.

322
00:18:29,942 --> 00:18:31,777
Biar saya uji.

323
00:18:32,569 --> 00:18:33,487
PENGLIBATAN
PENGUJIAN A/B

324
00:18:33,570 --> 00:18:36,115
<i>saya boleh ramal jenis video</i>
<i>yang anda akan tonton.</i>

325
00:18:36,198 --> 00:18:39,159
<i>Saya boleh ramal jenis emosi</i>
<i>yang menyentuh anda.</i>

326
00:18:39,243 --> 00:18:40,410
Ya, sempurna.

327
00:18:41,578 --> 00:18:43,330
Kegagalan paling epik tahun ini.

328
00:18:43,747 --> 00:18:44,665
KEGAGALAN EPIK!

329
00:18:48,627 --> 00:18:51,088
- Bagus, ia berfungsi.
- Diikuti dengan video lain.

330
00:18:51,171 --> 00:18:54,049
Bagus. Mari selitkan iklan kasut
sebelum ia mula.

331
00:18:56,510 --> 00:18:59,721
<i>Di kebanyakan syarikat teknologi ini,</i>
<i>ada tiga matlamat utama.</i>

332
00:18:59,805 --> 00:19:03,517
<i>Ada matlamat penglibatan untuk menaikkan</i>
<i>penggunaan, buat anda terus menatal.</i>

333
00:19:04,601 --> 00:19:06,145
Ada matlamat pertumbuhan

334
00:19:06,228 --> 00:19:08,647
<i>untuk buat anda terus kembali</i>
<i>dan jemput ramai rakan</i>

335
00:19:08,730 --> 00:19:10,732
<i>dan buat mereka jemput lebih ramai rakan.</i>

336
00:19:11,650 --> 00:19:14,987
Kemudian ada matlamat pengiklanan
untuk memastikan ketika itu berlaku

337
00:19:15,070 --> 00:19:17,406
kami jana sebanyak mungkin
keuntungan daripada pengiklanan.

338
00:19:19,366 --> 00:19:21,994
Setiap matlamat ini
didorong oleh algoritma

339
00:19:22,077 --> 00:19:24,454
yang fungsinya adalah
memikirkan apa nak ditunjuk pada anda

340
00:19:24,538 --> 00:19:26,165
untuk terus naikkan nombor.

341
00:19:26,623 --> 00:19:29,918
Kami sering bincang idea ini di Facebook

342
00:19:30,002 --> 00:19:34,006
untuk memanipulasinya ikut keperluan.

343
00:19:34,673 --> 00:19:38,594
Kami bincang tentang Mark
memiliki kemampuan manipulasi itu.

344
00:19:41,180 --> 00:19:44,474
"Hei, saya mahu lebih banyak
pengguna di Korea hari ini."

345
00:19:45,684 --> 00:19:46,602
Mulakan manipulasi.

346
00:19:47,102 --> 00:19:49,188
"Mari naikkan iklan sedikit."

347
00:19:49,605 --> 00:19:51,732
"Naikkan sedikit pengewangan."

348
00:19:52,858 --> 00:19:55,444
Jadi...

349
00:19:55,527 --> 00:19:59,239
semua syarikat ini
ada tahap ketepatan itu.

350
00:19:59,990 --> 00:20:02,409
- Macam mana...
- Saya tak tahu kenapa saya tak diperiksa.

351
00:20:02,492 --> 00:20:05,704
- Mungkin pengadil itu teruk.
- Awak berjaya lepaskan diri.

352
00:20:05,787 --> 00:20:07,956
- Itu Rebecca. Pergi tegur dia.
- Saya tahu.

353
00:20:08,040 --> 00:20:10,834
- Pergilah tegur dia.
- Nak pergilah ini.

354
00:20:10,918 --> 00:20:14,171
Ikut jadual, dia rehat sekarang.
Kita patut bersiaran.

355
00:20:15,255 --> 00:20:16,465
Mahu saya sapa dia?

356
00:20:17,132 --> 00:20:18,050
Ya, sapa dia.

357
00:20:21,720 --> 00:20:24,181
"Rakan anda, Tyler baru sertai.
Sapa dengan melambai."

358
00:20:26,016 --> 00:20:27,184
Ayuh, kawan.

359
00:20:27,267 --> 00:20:28,769
Hantar lambai.

360
00:20:29,394 --> 00:20:31,647
Awak tak pun... Pergilah tegur dia.

361
00:20:31,730 --> 00:20:34,900
RAKAN ANDA TYLER BARU SERTAI.
SAPA DENGAN MELAMBAI

362
00:20:36,902 --> 00:20:37,986
JARINGAN RANGKAIAN

363
00:20:38,070 --> 00:20:40,447
Pautan baharu! Baik, kita ke udara.

364
00:20:40,948 --> 00:20:46,078
Susulinya dengan siaran daripada
Pengguna 079044238820, Rebecca.

365
00:20:46,161 --> 00:20:49,790
Idea yang bagus. Koordinat GPS
menunjukkan mereka berdekatan.

366
00:20:52,167 --> 00:20:55,837
REBECCA_G
JUMPA TEMAN SEJIWA! #BESTIES #SLURP #BFF

367
00:20:55,921 --> 00:20:57,172
Masa untuk iklan.

368
00:20:57,631 --> 00:20:58,632
Masa membida.

369
00:20:58,715 --> 00:21:00,050
ULASAN IKLAN
LILIN RAMBUT DEEP FADE

370
00:21:00,133 --> 00:21:02,803
Dijual! Kepada lilin rambut Deep Fade.

371
00:21:03,387 --> 00:21:07,933
Kita ada 468 pembida yang berminat.
Kita jual Ben pada 3.262 setanggapan.

372
00:21:17,109 --> 00:21:21,530
<i>Kita cipta dunia di mana hubungan</i>
<i>dalam talian menjadi keutamaan</i>

373
00:21:22,072 --> 00:21:23,907
<i>terutama kepada generasi lebih muda,</i>

374
00:21:23,991 --> 00:21:28,328
<i>tetapi dalam dunia itu,</i>
<i>setiap kali dua orang berhubung</i>

375
00:21:29,162 --> 00:21:33,250
satu-satunya ia dibayar
adalah melalui orang ketiga yang licik

376
00:21:33,333 --> 00:21:35,627
yang bayar untuk
memanipulasi dua orang tadi.

377
00:21:35,711 --> 00:21:39,381
Jadi, kita cipta
keseluruhan generasi manusia

378
00:21:39,464 --> 00:21:44,011
yang dibesarkan dalam konteks
yang mana maksud komunikasi,

379
00:21:44,094 --> 00:21:47,431
maksud budaya adalah manipulasi.

380
00:21:47,514 --> 00:21:49,725
Kita letak penipuan dan kelicikan

381
00:21:49,808 --> 00:21:52,311
di tengah-tengah semua yang kita buat.

382
00:21:56,356 --> 00:22:01,445
"Teknologi yang cukup maju
tiada bezanya dengan keajaiban."

383
00:22:01,528 --> 00:22:05,657
ARTHUR C. CLARKE

384
00:22:05,741 --> 00:22:07,242
<i>- Ambil yang lain.</i>
<i>- Okey.</i>

385
00:22:07,326 --> 00:22:09,369
<i>- Di mana sesuai?</i>
<i>- Bagus.</i>

386
00:22:09,453 --> 00:22:10,620
- Di sini?
- Ya.

387
00:22:10,704 --> 00:22:13,707
Bagaimana gambarnya
pada kamera nanti jika saya buat...

388
00:22:13,790 --> 00:22:15,459
- Kami boleh...
- Begitu?

389
00:22:15,542 --> 00:22:16,835
- Apa?
- Ya.

390
00:22:16,918 --> 00:22:18,462
- Buat lagi
- Boleh, ya.

391
00:22:19,046 --> 00:22:20,589
Ya. Tak, mungkin tak...

392
00:22:20,672 --> 00:22:21,965
Ya.

393
00:22:22,466 --> 00:22:23,884
Yang ini kurang...

394
00:22:31,016 --> 00:22:33,268
Chris ternganga kagum di sini.

395
00:22:34,728 --> 00:22:35,562
Ini bagus?

396
00:22:35,645 --> 00:22:37,773
SILAP MATA!

397
00:22:37,856 --> 00:22:41,068
Saya berusia lima tahun
ketika belajar buat silap mata.

398
00:22:41,151 --> 00:22:45,781
Saya juga boleh memperdayakan
orang dewasa yang ada PHD.

399
00:22:54,998 --> 00:22:57,709
Ahli silap mata umpama ahli sains neuro

400
00:22:57,793 --> 00:22:58,960
dan ahli psikologi pertama.

401
00:22:59,044 --> 00:23:02,005
Mereka yang pertama memahami

402
00:23:02,089 --> 00:23:03,673
cara minda manusia berfungsi.

403
00:23:04,216 --> 00:23:07,677
Mereka uji banyak perkara
ke atas manusia dalam masa nyata.

404
00:23:09,137 --> 00:23:11,139
Ahli silap mata memahami sesuatu,

405
00:23:11,223 --> 00:23:14,017
sebahagian minda kita,
yang kita tak sedar.

406
00:23:14,101 --> 00:23:15,936
Itulah yang menjayakan ilusi.

407
00:23:16,019 --> 00:23:20,607
Doktor, peguam, pencipta kapal terbang
atau peluru nuklear,

408
00:23:20,690 --> 00:23:24,361
mereka tak tahu tentang betapa mudah
minda mereka dipengaruhi.

409
00:23:24,444 --> 00:23:26,113
Itu displin yang berbeza.

410
00:23:26,571 --> 00:23:28,990
Ia displin yang terpakai
untuk semua manusia.

411
00:23:29,074 --> 00:23:30,909
UNIVERSITI STANFORD

412
00:23:30,992 --> 00:23:34,079
Dari perspektif itu, anda boleh
miliki pemahaman sangat berbeza

413
00:23:34,162 --> 00:23:35,664
tentang apa yang dilakukan teknologi.

414
00:23:36,540 --> 00:23:41,044
Ketika saya di Makmal Teknologi Pujukan
Stanford, ini yang kami belajar.

415
00:23:41,128 --> 00:23:43,463
Bagaimana kami boleh guna
semua yang kami tahu

416
00:23:43,547 --> 00:23:45,882
tentang psikologi yang meyakinkan manusia

417
00:23:45,966 --> 00:23:48,385
dan membinanya ke dalam teknologi?

418
00:23:48,468 --> 00:23:50,887
Ramai yang genius di kalangan penonton.

419
00:23:50,971 --> 00:23:53,181
Rasanya betul tapi matlamat saya
adalah ubah anda

420
00:23:53,265 --> 00:23:55,851
menjadi genius yang ubah tingkah laku.

421
00:23:56,852 --> 00:24:01,148
Ramai tokoh terkenal Silicon Valley
yang menyertai kelas itu,

422
00:24:01,231 --> 00:24:05,485
tokoh pertumbuhan penting
di Facebook, Uber dan syarikat lain

423
00:24:05,569 --> 00:24:09,197
dan belajar cara membuat
teknologi lebih meyakinkan,

424
00:24:09,281 --> 00:24:10,782
Tristan salah seorangnya.

425
00:24:12,284 --> 00:24:14,619
Teknologi pujukan adalah reka bentuk

426
00:24:14,703 --> 00:24:16,580
yang sengaja diguna secara melampau.

427
00:24:16,663 --> 00:24:18,874
Kami sangat ingin ubah
tingkah laku seseorang.

428
00:24:18,957 --> 00:24:20,542
Kami mahu dia bertindak begini,

429
00:24:20,625 --> 00:24:23,336
kami mahu mereka terus
buat begini dengan jari mereka.

430
00:24:23,420 --> 00:24:26,256
Anda ke bawah dan segar semula,
perkara baharu muncul di atas.

431
00:24:26,339 --> 00:24:28,508
Ke bawah dan segar lagi,
muncul baharu, setiap kali.

432
00:24:28,592 --> 00:24:33,722
<i>Dalam psikologi kami memanggilnya</i>
<i>peneguhan berselang positif.</i>

433
00:24:33,805 --> 00:24:37,142
Anda tak tahu bila anda akan dapat
atau jika anda akan dapat sesuatu

434
00:24:37,225 --> 00:24:40,061
yang berfungsi sama seperti
mesin slot di Vegas.

435
00:24:40,145 --> 00:24:42,230
Tak cukup untuk anda guna
produk itu secara sedar

436
00:24:42,314 --> 00:24:44,024
saya mahu menyelam jauh ke dalam otak

437
00:24:44,107 --> 00:24:47,652
dan menanam tabiat bawah sedar
dalam diri anda

438
00:24:47,736 --> 00:24:50,864
supaya anda diprogramkan
pada tahap lebih dalam.

439
00:24:50,947 --> 00:24:52,115
Anda tak sedar pun.

440
00:24:52,199 --> 00:24:54,034
Seorang lelaki bernama James Marshall...

441
00:24:54,117 --> 00:24:56,286
<i>Setiap kali anda melihatnya di meja</i>

442
00:24:56,369 --> 00:24:59,789
dan hanya melihatnya,
anda tahu jika anda ambil

443
00:24:59,873 --> 00:25:01,333
ia ada sesuatu untuk anda,

444
00:25:01,416 --> 00:25:03,877
anda main mesin slot untuk lihat
apa akan dapat, bukan?

445
00:25:03,960 --> 00:25:06,046
Itu bukan kebetulan.
Itu teknik reka bentuk.

446
00:25:06,129 --> 00:25:11,134
Dia membawa emas kepada
pegawai tentera di San Francisco.

447
00:25:12,219 --> 00:25:15,388
Ingat, populasi San Fransicso hanyalah...

448
00:25:15,472 --> 00:25:17,432
<i>Satu lagi contoh adalah mengetag gambar.</i>

449
00:25:19,726 --> 00:25:24,064
<i>Jika anda dapat e-mel memberitahu</i>
<i>rakan anda tag anda dalam gambar,</i>

450
00:25:24,147 --> 00:25:28,568
<i>sudah tentu anda akan buka e-mel</i>
<i>dan lihat gambar itu.</i>

451
00:25:29,152 --> 00:25:31,821
<i>Ia bukan sesuatu</i>
<i>yang anda rasa nak abaikan.</i>

452
00:25:32,364 --> 00:25:36,326
Ini personaliti mendalam manusia
yang mereka guna.

453
00:25:36,409 --> 00:25:38,078
Apa anda patut tanya adalah,

454
00:25:38,161 --> 00:25:40,288
"Kenapa e-mel tak sertakan gambar sekali?

455
00:25:40,372 --> 00:25:42,457
Tentu lebih mudah nak lihat gambar."

456
00:25:42,541 --> 00:25:45,919
Ketika Facebook temui ciri itu,
mereka gunanya dengan maksimum

457
00:25:46,002 --> 00:25:48,505
bagi mereka, "Ini cara hebat
untuk mengembangkan aktiviti.

458
00:25:48,588 --> 00:25:51,091
Mari buat orang tag satu sama lain
sepanjang hari."

459
00:25:56,263 --> 00:25:58,890
BEN_W - SEKURANG-KURANGNYA
SALAH SEORANG NAMPAK CANTIK

460
00:25:59,349 --> 00:26:00,475
Dia komen.

461
00:26:00,559 --> 00:26:01,434
Bagus.

462
00:26:01,935 --> 00:26:04,688
Rebecca menerimanya dan membalas.

463
00:26:04,771 --> 00:26:07,566
Biar Ben tahu Rebecca sedang menaip
supaya kita tak hilang dia.

464
00:26:07,649 --> 00:26:08,733
Aktifkan elipsis.

465
00:26:09,234 --> 00:26:13,613
SEKURANG-KURANGNYA
SALAH SEORANG NAMPAK CANTIK

466
00:26:19,411 --> 00:26:20,745
Bagus, dia dah siarkan.

467
00:26:21,454 --> 00:26:24,249
Dia komen tentang komen Rebecca
tentang komennya pada siaran Rebecca.

468
00:26:25,041 --> 00:26:26,418
Nanti, dia berhenti menaip.

469
00:26:26,751 --> 00:26:27,752
Buat isian automatik.

470
00:26:28,420 --> 00:26:30,005
Emotikon. Dia suka emotikon.

471
00:26:31,381 --> 00:26:33,758
ISIAN AUTOMATIK
PENGLIBATAN

472
00:26:33,842 --> 00:26:34,676
Dia guna emotikon api.

473
00:26:35,427 --> 00:26:36,803
Saya harapkan terung.

474
00:26:38,597 --> 00:26:42,726
<i>Terdapat displin dan bidang</i>
<i>yang dipanggil "penggodaman pertumbuhan."</i>

475
00:26:42,809 --> 00:26:47,147
Sekumpulan jurutera yang tugasnya
adalah menggodam psikologi manusia

476
00:26:47,230 --> 00:26:48,565
untuk dapat lebih pertumbuhan.

477
00:26:48,648 --> 00:26:50,984
Lebih pengguna cipta akaun,
lebih penglibatan,

478
00:26:51,067 --> 00:26:52,861
mereka boleh buat anda
jemput lebih ramai orang.

479
00:26:52,944 --> 00:26:55,989
Selepas semua uji kaji, semua pengulangan,

480
00:26:56,072 --> 00:26:57,907
anda tahu apa kami paling sedar?

481
00:26:57,991 --> 00:27:00,994
Buat mana-mana individu
jemput tujuh rakan dalam 10 hari.

482
00:27:01,953 --> 00:27:02,787
Itu dia.

483
00:27:02,871 --> 00:27:05,498
Chamath ialah
ketua pertumbuhan Facebook pada awalnya

484
00:27:05,582 --> 00:27:08,251
dan dia sangat dikenali
dalam industri teknologi

485
00:27:08,335 --> 00:27:11,004
kerana merintis banyak taktik pertumbuhan

486
00:27:11,087 --> 00:27:14,758
yang digunakan untuk mengembangkan
Facebook dalam kelajuan luar biasa.

487
00:27:14,841 --> 00:27:18,553
Taktik pertumbuhan itu kemudiannya
jadi panduan biasa untuk Silicon Valley.

488
00:27:18,637 --> 00:27:21,222
Ia digunakan di Uber dan
banyak syarikat lain.

489
00:27:21,306 --> 00:27:27,062
Salah satu perkara yang dirintisnya adalah
penggunaan pengujian A/B saintifik

490
00:27:27,145 --> 00:27:28,480
dalam perubahan ciri kecil.

491
00:27:28,563 --> 00:27:30,940
Syarikat seperti Google dan Facebook

492
00:27:31,024 --> 00:27:34,569
akan memperkenalkan
banyak uji kaji yang sangat kecil

493
00:27:34,653 --> 00:27:36,821
yang dibuat secara berterusan
ke atas pengguna

494
00:27:36,905 --> 00:27:39,866
dan lama-kelamaan dengan
menjalankan uji kaji berterusan ini

495
00:27:39,949 --> 00:27:43,036
mereka bina cara paling optimum

496
00:27:43,119 --> 00:27:45,288
buat pengguna bertindak
ikut kemahuan mereka.

497
00:27:45,372 --> 00:27:46,790
Ia manipulasi.

498
00:27:47,332 --> 00:27:49,709
Awak buat saya rasa seperti tikus makmal.

499
00:27:49,793 --> 00:27:52,462
Awak memang tikus makmal.
Kita semua tikus makmal.

500
00:27:52,545 --> 00:27:55,548
Bukan tikus makmal untuk
mencari rawatan kanser.

501
00:27:55,632 --> 00:27:58,134
Bukannya mereka cuba
beri kebaikan kepada kita.

502
00:27:58,218 --> 00:28:01,680
Betul? Kita hanya zombie dan
mereka mahu kita lihat lebih banyak iklan

503
00:28:01,763 --> 00:28:03,473
supaya mereka lebih untung.

504
00:28:03,556 --> 00:28:08,228
<i>Facebook menjalankan apa mereka panggil,</i>
<i>"uji kaji penularan skala besar."</i>

505
00:28:08,311 --> 00:28:09,145
Okey.

506
00:28:09,229 --> 00:28:12,857
<i>Bagaimana nak guna</i>
<i>isyarat bawah sedar pada halaman Facebook</i>

507
00:28:13,400 --> 00:28:17,570
<i>untuk buat lebih ramai orang</i>
<i>pergi mengundi dalam pilihan raya?</i>

508
00:28:17,987 --> 00:28:20,824
Mereka temui yang
mereka mampu buat begitu.

509
00:28:20,907 --> 00:28:24,160
Satu perkara yang mereka simpulkan
adalah kita kini tahu

510
00:28:24,744 --> 00:28:28,915
kita boleh mempengaruhi
tingkah laku dunia nyata dan emosi

511
00:28:28,998 --> 00:28:32,877
tanpa pengguna sedar.

512
00:28:33,378 --> 00:28:37,382
Mereka langsung tak tahu.

513
00:28:38,049 --> 00:28:41,970
Kita menunjuk kepada enjin-enjin AI
kembali ke diri kita

514
00:28:42,053 --> 00:28:46,224
untuk membalikkan semula
apa yang buat kita bertindak balas.

515
00:28:47,100 --> 00:28:49,561
Seolah-olah anda merangsang
sel saraf pada labah-labah

516
00:28:49,644 --> 00:28:51,479
untuk lihat apa yang menyebabkan
kakinya bertindak balas.

517
00:28:51,938 --> 00:28:53,940
Ia umpama jenis uji kaji penjara

518
00:28:54,023 --> 00:28:56,735
di mana kita buat orang masuk
tanpa sedar ke dalam matriks

519
00:28:56,818 --> 00:29:00,572
kita hanya buat duit dan data
daripada aktiviti mereka

520
00:29:00,655 --> 00:29:01,489
untuk jana keuntungan.

521
00:29:01,573 --> 00:29:03,450
Kita tak sedar pun yang ini berlaku.

522
00:29:04,117 --> 00:29:07,912
Kami mahu tahu secara psikologi
cara memanipulasi anda secepat mungkin

523
00:29:07,996 --> 00:29:10,081
dan kemudian buat anda rasa gembira.

524
00:29:10,165 --> 00:29:12,542
Kami buat dengan jayanya di Facebook.

525
00:29:12,625 --> 00:29:14,919
Instagram, WhatsApp telah melakukannya.

526
00:29:15,003 --> 00:29:17,380
Snapchat, Twitter telah melakukannya.

527
00:29:17,464 --> 00:29:19,424
Ia memang sesuatu

528
00:29:19,507 --> 00:29:22,427
yang penggodam seperti saya
akan fikirkan

529
00:29:22,510 --> 00:29:27,015
kerana anda mengekploitasi
kelemahan dalam psikologi manusia.

530
00:29:27,098 --> 00:29:28,725
SEAN PARKER
BEKAS PRESIDEN FACEBOOK

531
00:29:28,808 --> 00:29:33,438
Saya rasa kami,
yang terdiri daripada pelabur, pencipta,

532
00:29:33,980 --> 00:29:37,317
saya, Mark...

533
00:29:37,400 --> 00:29:40,403
Kevin Systrom di Instagram,
semua individu ini,

534
00:29:41,154 --> 00:29:46,451
memahami ini secara sedar
dan kami buat juga.

535
00:29:50,580 --> 00:29:53,750
Tiada sesiapa marah
ketika basikal dicipta.

536
00:29:55,043 --> 00:29:58,004
Betul? Semua orang mula menaiki basikal

537
00:29:58,087 --> 00:30:00,924
tiada siapa cakap,
"Oh, Tuhan, kita merosakkan masyarakat.

538
00:30:01,007 --> 00:30:03,051
Basikal mempengaruhi orang,

539
00:30:03,134 --> 00:30:05,303
ia menjauhkan orang daripada anak-anak,

540
00:30:05,386 --> 00:30:08,723
ia merosakkan struktur demokrasi,
orang tak tahu kebenaran.

541
00:30:08,807 --> 00:30:11,476
Kita tak pernah cakap semua itu
tentang basikal.

542
00:30:12,769 --> 00:30:16,147
Jika sesuatu itu hanya alat,
ia akan duduk saja di situ,

543
00:30:16,731 --> 00:30:18,733
menunggu dengan sabar.

544
00:30:19,317 --> 00:30:22,821
Jika sesuatu itu bukan alat,
ia mendesak sesuatu daripada anda,

545
00:30:22,904 --> 00:30:26,533
ia menggoda, memanipulasi
dan mahukan sesuatu daripada anda.

546
00:30:26,616 --> 00:30:30,745
Kita beralih daripada memiliki
persekitaran teknologi berasaskan alat

547
00:30:30,829 --> 00:30:34,499
kepada persekitaran teknologi
berdasarkan manipulasi dan ketagihan.

548
00:30:34,582 --> 00:30:35,708
Itu yang berubah.

549
00:30:35,792 --> 00:30:39,420
Media sosial bukan alat yang
hanya menunggu untuk digunakan.

550
00:30:39,504 --> 00:30:43,466
Ia ada matlamat tersendiri dan
cara tersendiri untuk mencapainya

551
00:30:43,550 --> 00:30:45,677
dengan menggunakan psikologi anda
terhadap anda.

552
00:30:49,055 --> 00:30:52,517
"Hanya ada dua industri yang
memanggil pelanggan mereka 'pengguna'.

553
00:30:52,600 --> 00:30:55,562
dadah dan perisian haram."

554
00:30:55,645 --> 00:30:57,480
EDWARD TUFTE

555
00:30:57,564 --> 00:31:02,193
<i>Beberapa tahun lepas,</i>
<i>saya Presiden Pinterest.</i>

556
00:31:03,152 --> 00:31:08,366
Saya balik rumah dan asyik tengok telefon
sebaik saya sampai rumah,

557
00:31:08,449 --> 00:31:12,161
walaupun ada dua anak kecil
yang perlukan kasih sayang dan perhatian.

558
00:31:12,245 --> 00:31:15,748
Saya di bilik makanan, menaip e-mel

559
00:31:15,832 --> 00:31:17,542
atau kadang kala melihat Pinterest.

560
00:31:18,001 --> 00:31:19,627
Saya fikir, "Oh, Tuhan, ini ironi.

561
00:31:19,711 --> 00:31:22,046
Saya pergi kerja waktu siang

562
00:31:22,130 --> 00:31:26,426
dan bina sesuatu yang
saya sendiri menjadi mangsanya."

563
00:31:26,509 --> 00:31:30,096
Ada kalanya ketika itu,
saya tak boleh melawan.

564
00:31:32,307 --> 00:31:36,102
Saya paling cenderung pada Twitter.

565
00:31:36,728 --> 00:31:38,021
Dahulunya Reddit.

566
00:31:38,104 --> 00:31:42,859
Saya terpaksa mencipta perisian
untuk menghentikan ketagihan pada Reddit.

567
00:31:45,403 --> 00:31:47,780
Saya paling ketagih pada e-mel saya.

568
00:31:47,864 --> 00:31:49,866
Saya benar-benar dapat rasainya.

569
00:31:52,577 --> 00:31:54,954
Menariknya,

570
00:31:55,038 --> 00:31:58,166
mengetahui apa yang berlaku
dalam pembuatannya

571
00:31:58,249 --> 00:32:01,628
saya masih tak dapat kawal
penggunaan saya.

572
00:32:01,711 --> 00:32:03,046
Itu agak menakutkan.

573
00:32:03,630 --> 00:32:07,050
Walaupun tahu cara helah ini berfungsi,
saya masih terpengaruh.

574
00:32:07,133 --> 00:32:09,886
Saya masih akan ambil telefon
dan leka dengannya.

575
00:32:12,805 --> 00:32:15,725
Anda periksa telefon pintar
sebelum buang air kecil waktu pagi

576
00:32:15,808 --> 00:32:17,477
atau ketika buang air kecil?

577
00:32:17,560 --> 00:32:19,479
Sebab itu sahaja pilihannya.

578
00:32:19,562 --> 00:32:23,274
Saya cuba melalui kesungguhan diri,
hanya kesungguhan diri...

579
00:32:23,358 --> 00:32:26,903
"Saya akan letak telefon,
tinggalkan telefon di dalam kereta."

580
00:32:26,986 --> 00:32:30,573
Beribu-ribu kali saya beritahu diri,
pada beribu-ribu hari berbeza,

581
00:32:30,657 --> 00:32:32,617
"Saya takkan bawa telefon ke bilik tidur,"

582
00:32:32,700 --> 00:32:34,535
kemudian jam sembilan malam.

583
00:32:34,619 --> 00:32:37,121
"Saya mahu bawa telefon ke bilik tidur."

584
00:32:37,956 --> 00:32:39,290
Itu boleh dikatakan ...

585
00:32:39,374 --> 00:32:41,125
Kesungguhan diri adalah cubaan pertama

586
00:32:41,209 --> 00:32:44,295
kemudian cubaan kedua adalah kekerasan.

587
00:32:44,379 --> 00:32:45,880
<i>Memperkenalkan Kitchen Safe.</i>

588
00:32:45,964 --> 00:32:49,801
<i>Kitchen Safe ialah</i>
<i>bekas pengunci masa baharu</i>

589
00:32:49,884 --> 00:32:51,678
<i>yang bantu anda melawan godaan.</i>

590
00:32:51,761 --> 00:32:56,724
<i>David hanya perlu letakkan</i>
<i>godaan itu ke dalam Kitchen Safe.</i>

591
00:32:57,392 --> 00:33:00,561
<i>Kemudian, dia pusingkan dail</i>
<i>untuk memetapkan pemasa</i>

592
00:33:01,479 --> 00:33:04,232
<i>dan akhirnya tekan dail</i>
<i>untuk aktifkan kunci.</i>

593
00:33:04,315 --> 00:33:05,525
<i>Kitchen Safe bagus...</i>

594
00:33:05,608 --> 00:33:06,776
Kita ada itu, bukan?

595
00:33:06,859 --> 00:33:08,569
<i>...permiainan video, kad kredit</i>
<i>dan telefon bimbit.</i>

596
00:33:08,653 --> 00:33:09,654
Ya, ada.

597
00:33:09,737 --> 00:33:11,072
<i>Apabila Kitchen Safe dikunci,</i>

598
00:33:11,155 --> 00:33:13,866
<i>ia tak boleh dibuka sehingga masa tamat.</i>

599
00:33:13,950 --> 00:33:17,537
Begini. Media sosial adalah dadah.

600
00:33:17,620 --> 00:33:20,873
Kita mempunyai keperluan asas biologi

601
00:33:20,957 --> 00:33:23,084
untuk berhubung dengan orang lain.

602
00:33:23,167 --> 00:33:28,214
Itu secara langsung mempengaruhi
pelepasan dopamin dalam laluan ganjaran.

603
00:33:28,297 --> 00:33:32,552
Evolusi berjuta-juta tahun
adalah berasaskan sistem itu

604
00:33:32,635 --> 00:33:35,596
untuk menghubungkan kita bersama
dan hidup dalam masyarakat

605
00:33:35,680 --> 00:33:38,016
untuk cari pasangan,
untuk biakkan spesies.

606
00:33:38,099 --> 00:33:41,853
Jadi, sudah pasti wadah
seperti media sosial

607
00:33:41,936 --> 00:33:45,690
yang mengoptimumkan
hubungan ini antara manusia

608
00:33:45,773 --> 00:33:48,568
berpotensi menjadi ketagihan.

609
00:33:52,780 --> 00:33:54,115
Ayah, jangan!

610
00:33:55,450 --> 00:33:58,453
Saya ada seribu <i>snip</i>
nak hantar sebelum makan malam.

611
00:33:58,536 --> 00:33:59,537
<i>Snip?</i>

612
00:33:59,620 --> 00:34:01,080
Saya tak tahu <i>snip</i> itu apa.

613
00:34:01,164 --> 00:34:03,207
- Sedapnya bau, sayang.
- Terima kasih.

614
00:34:03,291 --> 00:34:05,877
Mak mahu kita semua
guna kelima-lima deria

615
00:34:05,960 --> 00:34:07,712
untuk menikmati makan malam.

616
00:34:07,795 --> 00:34:11,382
Jadi, tak boleh ada telefon bimbit
di meja makan malam ini.

617
00:34:11,466 --> 00:34:13,301
Serahkannya pada mak.

618
00:34:13,801 --> 00:34:14,802
- Yakah?
- Ya.

619
00:34:15,928 --> 00:34:18,056
- Baiklah.
- Terima kasih. Ben?

620
00:34:18,139 --> 00:34:19,891
- Okey.
- Mak, lanun telefon.

621
00:34:21,100 --> 00:34:21,934
- Dapat.
- Mak!

622
00:34:22,602 --> 00:34:26,147
Ia semua selamat di sini
hingga selepas makan malam

623
00:34:27,273 --> 00:34:31,277
dan semua orang bertenang. Okey?

624
00:34:47,418 --> 00:34:49,253
- Boleh saya lihat siapa?
- Tak.

625
00:34:54,759 --> 00:34:56,969
Saya nak ambil garpu lain.

626
00:34:58,304 --> 00:34:59,263
Terima kasih.

627
00:35:04,727 --> 00:35:06,771
Sayang, kamu tak boleh buka.

628
00:35:06,854 --> 00:35:09,315
Mak kuncinya selama sejam, biarkan saja.

629
00:35:11,192 --> 00:35:13,361
Jadi, apa kita nak bualkan?

630
00:35:13,444 --> 00:35:17,907
Kita boleh bercakap tentang
pentaksub Extreme Center saya lalu tadi.

631
00:35:17,990 --> 00:35:18,825
- Tolong, Frank.
- Apa?

632
00:35:18,908 --> 00:35:20,785
Saya tak nak cakap tentang politik.

633
00:35:20,868 --> 00:35:23,538
- Kenapa dengan Extreme Center?
- Nampak? Dia tak faham pun.

634
00:35:23,621 --> 00:35:24,622
Bergantung kepada siapa awak tanya.

635
00:35:24,705 --> 00:35:26,624
Macam tanya, "Kenapa dengan propaganda?"

636
00:35:28,709 --> 00:35:29,710
Isla!

637
00:35:32,797 --> 00:35:33,756
Oh, Tuhan.

638
00:35:37,135 --> 00:35:38,553
- Mahu saya...
- Ya.

639
00:35:41,973 --> 00:35:43,933
<i>Saya bimbang tentang anak-anak saya.</i>

640
00:35:44,016 --> 00:35:46,686
<i>Jika anda ada anak,</i>
<i>saya bimbang tentang anak anda.</i>

641
00:35:46,769 --> 00:35:50,189
Dilengkapi dengan pengetahuan
dan pengalaman yang saya ada,

642
00:35:50,273 --> 00:35:52,108
saya berbalah dengan
anak-anak tentang masa

643
00:35:52,191 --> 00:35:54,443
mereka luangkan pada telefon dan komputer.

644
00:35:54,527 --> 00:35:58,197
Saya tanya anak, "Berapa lama
kamu nak habiskan masa dengan telefon?"

645
00:35:58,281 --> 00:36:01,075
Dia jawab, "Paling lama setengah jam."

646
00:36:01,159 --> 00:36:04,871
Saya rasa, paling lama pun sejam setengah.

647
00:36:04,954 --> 00:36:06,789
Saya periksa laporan skrin dia

648
00:36:06,873 --> 00:36:08,708
- dan ia tiga jam 45 minit.
- Itu...

649
00:36:11,377 --> 00:36:13,588
Saya rasa itu, purata untuk sehari?

650
00:36:13,671 --> 00:36:15,506
- Ya.
- Mahu saya ambil sekarang?

651
00:36:15,590 --> 00:36:19,177
Setiap hari saya ingatkan anak-anak saya

652
00:36:19,260 --> 00:36:21,762
tentang keseimbangan
rasa seronok dan sengsara,

653
00:36:21,846 --> 00:36:26,267
tentang keadaan defisit dopamin,
tentang risiko ketagihan.

654
00:36:26,350 --> 00:36:27,310
- Baik.
- Saat kebenaran.

655
00:36:27,935 --> 00:36:29,687
Dua jam 50 minit sehari.

656
00:36:29,770 --> 00:36:31,772
- Mari lihat.
- Saya guna banyak hari ini.

657
00:36:31,856 --> 00:36:33,357
- Sejak tujuh hari lepas.
- Mungkin itu sebabnya.

658
00:36:33,441 --> 00:36:37,153
Instagram, enam jam, 13 minit.
Instagram saya lebih teruk.

659
00:36:39,572 --> 00:36:43,201
Skrin saya habis pecah.
Terima kasih, Cass.

660
00:36:44,410 --> 00:36:45,995
Kenapa salah saya pula?

661
00:36:46,078 --> 00:36:49,290
Awak buat mak risau tentang
telefon sedangkan bukan masalah pun.

662
00:36:49,373 --> 00:36:51,167
Kita tak perlu telefon untuk makan malam.

663
00:36:51,250 --> 00:36:54,170
Saya faham maksud awak,
tapi ini bukan masalah besar pun.

664
00:36:56,005 --> 00:36:58,382
Kalau bukan masalah besar,
jangan guna seminggu.

665
00:37:01,135 --> 00:37:02,178
Ya.

666
00:37:02,261 --> 00:37:06,599
Ya, jika kamu boleh ketepikannya
selama seminggu...

667
00:37:07,725 --> 00:37:09,518
mak akan belikan skrin baharu.

668
00:37:11,062 --> 00:37:12,772
- Mulai sekarang?
- Mulai sekarang.

669
00:37:15,274 --> 00:37:16,859
Okey. Saya setuju.

670
00:37:16,943 --> 00:37:19,111
Tinggalkan telefon kamu di sini.

671
00:37:19,862 --> 00:37:21,364
Baiklah, saya cas.

672
00:37:22,531 --> 00:37:25,076
Sebagai rekod,
saya dengan rasminya tak guna.

673
00:37:25,159 --> 00:37:25,993
Okey.

674
00:37:27,703 --> 00:37:29,413
- Mulai sekarang.
- Seminggu.

675
00:37:29,497 --> 00:37:30,331
Aduhai.

676
00:37:31,457 --> 00:37:32,416
Mak rasa dia boleh buat?

677
00:37:33,000 --> 00:37:34,252
Entahlah, kita lihat.

678
00:37:35,002 --> 00:37:36,128
Makan saja, okey?

679
00:37:44,136 --> 00:37:45,680
Makan malam keluarga yang seronok!

680
00:37:47,682 --> 00:37:49,809
<i>Produk teknologi ini tak direka bentuk</i>

681
00:37:49,892 --> 00:37:53,896
oleh ahli psikologi kanak-kanak
yang cuba melindungi dan memupuk anak.

682
00:37:53,980 --> 00:37:56,148
Ia hanya direka bentuk
untuk buat algoritma ini

683
00:37:56,232 --> 00:37:58,734
sangat bagus dalam mengesyorkan
video seterusnya untuk anda

684
00:37:58,818 --> 00:38:02,321
atau sangat bagus buat anda
ambil gambar dengan penapis padanya.

685
00:38:03,072 --> 00:38:05,324
DUA SUKAAN

686
00:38:13,291 --> 00:38:15,126
ANDA PASTI ANDA MAHU PADAM
TAK

687
00:38:15,209 --> 00:38:16,210
YA

688
00:38:16,752 --> 00:38:20,339
<i>Ia bukan saja mengawal</i>
<i>di mana mereka tumpukan perhatian</i>

689
00:38:21,173 --> 00:38:26,304
<i>Terutamanya media sosial mula</i>
<i>menggali lebih dalam ke dalam otak</i>

690
00:38:26,387 --> 00:38:29,765
<i>dan mengambil alih</i>
<i>nilai dan identiti diri kanak-kanak.</i>

691
00:38:29,849 --> 00:38:31,851
CANTIKKAN SAYA

692
00:38:42,069 --> 00:38:43,112
LILY_T
COMEL!

693
00:38:43,195 --> 00:38:44,822
SOPHIA_M
CANTIKNYA

694
00:38:44,905 --> 00:38:46,490
OLIVIA_B
AWAK SANGAT CANTIK

695
00:38:46,574 --> 00:38:48,200
AVA_R
BOLEH BUAT TELINGA AWAK LEBIH BESAR?

696
00:38:52,496 --> 00:38:56,542
<i>Kita dievolusikan untuk peduli</i>
<i>sama ada orang dalam suku kaum kita</i>

697
00:38:56,625 --> 00:38:59,378
<i>berpendapat baik tentang kita atau tak,</i>
<i>kerana itu penting.</i>

698
00:38:59,837 --> 00:39:04,550
<i>Tapi adakah kita dievolusikan untuk peduli</i>
<i>apa 10,000 orang fikir tentang kita?</i>

699
00:39:04,633 --> 00:39:05,885
Kita tak dievolusikan

700
00:39:05,968 --> 00:39:10,348
untuk ada persetujuan sosial
diberi kepada kita setiap lima minit.

701
00:39:10,431 --> 00:39:13,142
Kita langsung tak dibina untuk alami itu.

702
00:39:15,811 --> 00:39:20,107
<i>Kita urus kehidupan kita di sekitar</i>
<i>rasa kesempurnaan yang dapat dilihat</i>

703
00:39:20,649 --> 00:39:23,527
<i>kerana kita diberi ganjaran</i>
<i>dalam isyarat jangka pendek ini,</i>

704
00:39:23,611 --> 00:39:25,154
<i>emotikon hati, sukaan, ibu jari.</i>

705
00:39:25,237 --> 00:39:28,407
Lalu kita gabungkannya dengan
nilai dan kebenaran.

706
00:39:29,825 --> 00:39:33,120
Namun hakikatnya
ia kepopularan palsu dan rapuh

707
00:39:33,913 --> 00:39:37,458
dalam jangka pendek dan membuatkan anda,
lebih, akuinya,

708
00:39:37,541 --> 00:39:39,919
kosong dan hampa dari sebelumnya.

709
00:39:41,295 --> 00:39:43,381
Kemudian ia paksa anda
ke dalam kitaran kejam

710
00:39:43,464 --> 00:39:47,343
"Apa saya perlu buat seterusnya?
Sebab saya perlukannya semula."

711
00:39:48,260 --> 00:39:50,846
Bayangkan dua bilion orang rasa begitu

712
00:39:50,930 --> 00:39:54,767
dan bayangkan tentang reaksi orang
terhadap persepsi orang lain.

713
00:39:54,850 --> 00:39:56,435
Ia sangat teruk.

714
00:39:56,977 --> 00:39:58,229
Sangat teruk.

715
00:40:00,856 --> 00:40:05,069
<i>Terdapat peningkatan besar</i>
<i>dalam kemurungan dan kegelisahan</i>

716
00:40:05,152 --> 00:40:06,529
<i>di kalangan remaja Amerika</i>

717
00:40:06,612 --> 00:40:10,950
yang bermula antara 2011 dan 2013.

718
00:40:11,033 --> 00:40:15,371
Daripada 100,000
jumlah remaja perempuan di negara ini

719
00:40:15,454 --> 00:40:17,123
yang dimasukkan ke hospital setiap tahun

720
00:40:17,206 --> 00:40:19,917
kerana mereka cuba bunuh diri
atau mencederakan diri,

721
00:40:20,000 --> 00:40:23,921
jumlahnya agak stabil
hinggalah sekitar 2010, 2011,

722
00:40:24,004 --> 00:40:25,756
kemudian ia naik mendadak.

723
00:40:28,759 --> 00:40:32,596
Jumlahnya meningkat 62 peratus
bagi remaja perempuan lebih berusia

724
00:40:33,931 --> 00:40:37,309
Ia meningkat 189 peratus
bagi praremaja perempuan.

725
00:40:37,393 --> 00:40:38,936
Itu hampir tiga kali ganda.

726
00:40:40,312 --> 00:40:43,441
Lebih menakutkan,
coraknya sama dalam kes bunuh diri.

727
00:40:44,859 --> 00:40:47,570
Remaja perempuan lebih berusia,
15 ke 19 tahun

728
00:40:47,653 --> 00:40:51,449
jumlahnya meningkat 70 peratus
berbanding dekad pertama abad ini.

729
00:40:52,158 --> 00:40:55,536
Praremaja perempuan,
yang dulu kadarnya lebih rendah

730
00:40:55,619 --> 00:40:58,122
meningkat 151 peratus.

731
00:40:58,831 --> 00:41:01,709
Corak itu merujuk pada media sosial.

732
00:41:01,792 --> 00:41:03,961
MEDIA SOSIAL SEDIA ADA
PADA TELEFON BIMBIT 2009

733
00:41:04,044 --> 00:41:07,214
Gen Z, anak-anak yang lahir
selepas 1996 atau lebih,

734
00:41:07,298 --> 00:41:10,342
anak-anak itu adalah
generasi pertama dalam sejarah

735
00:41:10,426 --> 00:41:12,636
yang ada media sosial
ketika menengah rendah.

736
00:41:15,973 --> 00:41:17,433
<i>Bagaimana mereka luangkan masa?</i>

737
00:41:19,727 --> 00:41:22,480
<i>Mereka balik dari sekolah</i>
<i>dan asyik dengan telefon.</i>

738
00:41:24,315 --> 00:41:29,195
<i>Seluruh generasi lebih resah,</i>
<i>lebih rapuh dan lebih murung.</i>

739
00:41:30,613 --> 00:41:33,282
<i>Mereka kurang selesa ambil risiko.</i>

740
00:41:34,325 --> 00:41:37,536
<i>Kadar pengambilan</i>
<i>lesen memandu mereka menurun.</i>

741
00:41:38,954 --> 00:41:41,081
<i>Jumlah mereka</i>
<i>yang tak pernah berjanji temu</i>

742
00:41:41,165 --> 00:41:44,251
<i>atau sebarang interaksi romantik</i>
<i>jatuh mendadak.</i>

743
00:41:47,505 --> 00:41:49,715
<i>Ini perubahan sebenar dalam genarasi.</i>

744
00:41:53,177 --> 00:41:57,306
<i>Ingat, bagi setiap ini,</i>
<i>bagi setiap kemasukan hospital</i>

745
00:41:57,389 --> 00:42:00,726
<i>ada keluarga yang trauma dan ngeri.</i>

746
00:42:00,809 --> 00:42:02,811
<i>"Oh Tuhan, apa berlaku pada anak kami?"</i>

747
00:42:19,411 --> 00:42:21,330
<i>Terang lagi bersuluh bagi saya.</i>

748
00:42:22,873 --> 00:42:28,128
Perkhidmatan ini membunuh orang
dan menyebabkan orang bunuh diri.

749
00:42:29,088 --> 00:42:33,300
Tiada ibu bapa yang mahu,
"Ya, saya nak anak saya membesar

750
00:42:33,384 --> 00:42:36,887
dengan rasa dimanipulasi
oleh pereka bentuk teknologi,

751
00:42:36,971 --> 00:42:39,723
memanipulasi perhatian mereka,
jadi mustahil nak buat kerja rumah,

752
00:42:39,807 --> 00:42:42,560
buat mereka bandingkan diri dengan
standard kecantikan yang tak realistik."

753
00:42:42,643 --> 00:42:44,687
Tiada sesiapa mahukannya.

754
00:42:44,770 --> 00:42:46,355
Tiada sesiapa.

755
00:42:46,438 --> 00:42:48,482
Dahulu kita ada perlindungan ini.

756
00:42:48,566 --> 00:42:50,943
Ketika kanak-kanak menonton
kartun pagi Ahad,

757
00:42:51,026 --> 00:42:52,778
kita ambil berat
tentang melindungi kanak-kanak.

758
00:42:52,861 --> 00:42:57,074
Kita akan kata, "Anda tak boleh iklankan
kepada kanak-kanak dengan cara ini."

759
00:42:57,366 --> 00:42:58,784
Kemudian ada YouTube untuk kanak-kanak

760
00:42:58,867 --> 00:43:02,454
dan ia mengambil seluruh perhatian
yang boleh ditumpukan

761
00:43:02,538 --> 00:43:04,915
dan kini semua kanak-kanak terdedah
kepada YouTube untuk kanak-kanak.

762
00:43:04,999 --> 00:43:07,668
Semua perlindungan dan pengawalan lenyap.

763
00:43:10,296 --> 00:43:17,261
MASA TANPA TELEFON BIMBIT

764
00:43:18,304 --> 00:43:22,141
<i>Kita melatih dan menyesuaikan</i>
<i>seluruh generasi baharu</i>

765
00:43:23,434 --> 00:43:29,148
<i>yang mana ketika kita tak selesa,</i>
<i>sunyi, tak pasti atau takut,</i>

766
00:43:29,231 --> 00:43:32,151
kita ada pendamai digital
untuk diri sendiri

767
00:43:32,234 --> 00:43:36,488
<i>yang melemahkan kemampuan kita</i>
<i>untuk menanganinya.</i>

768
00:43:53,964 --> 00:43:56,884
Photoshop tak memiliki
seribu jurutera di sebalik skrin

769
00:43:56,967 --> 00:43:58,969
guna pemberitahuan, guna rakan-rakan anda,

770
00:43:59,053 --> 00:44:02,431
guna AI untuk meramal
apa yang akan buat anda ketagih

771
00:44:02,514 --> 00:44:04,516
memanipulasi anda atau
membenarkan pengiklan

772
00:44:04,600 --> 00:44:06,894
menguji 60,000 variasi teks dan warna...

773
00:44:06,977 --> 00:44:08,395
PERSIDANGAN TEKNOLOGI ANTI-TRUST CHICAGO

774
00:44:08,479 --> 00:44:11,065
...untuk memikirkan
manipulasi terbaik minda anda.

775
00:44:11,148 --> 00:44:14,985
Ini spesies kuasa
dan pengaruh serba baharu.

776
00:44:16,070 --> 00:44:19,156
Saya mahu katakan sekali lagi,
kaedah yang digunakan

777
00:44:19,239 --> 00:44:22,868
untuk memanipulasi kemampuan orang
jadi ketagih atau mempengaruhi mereka

778
00:44:22,951 --> 00:44:25,204
mungkin memang berbeza kali ini.

779
00:44:25,287 --> 00:44:28,749
Ia berbeza ketika surat khabar
dan mesin cetak muncul

780
00:44:28,832 --> 00:44:31,835
dan ia berbeza ketika televisyen muncul

781
00:44:31,919 --> 00:44:34,004
anda ada tiga saluran utama dan...

782
00:44:34,088 --> 00:44:36,423
- Ketika itu.
- Itu maksud saya.

783
00:44:36,507 --> 00:44:38,384
Idea yang mengatakan ada tahap baharu

784
00:44:38,467 --> 00:44:42,054
dan tahap baharu itu telah berlaku
banyak kali sebelum ini.

785
00:44:42,137 --> 00:44:45,099
Ini cuma tahap baharu terkini
yang kita lihat.

786
00:44:45,182 --> 00:44:48,727
Ada yang berpendapat,
"Kita sesuaikan saja diri dengannya.

787
00:44:48,811 --> 00:44:51,188
Kita akan belajar cara hidup
dengan peranti ini,

788
00:44:51,271 --> 00:44:53,732
sama seperti kita belajar
cara hidup dengan yang lain."

789
00:44:53,816 --> 00:44:56,694
Apa yang tertinggal adalah
sesuatu yang sangat baharu di sini.

790
00:44:57,569 --> 00:45:00,322
Mungkin cebisan yang paling bahaya
adalah hakikat

791
00:45:00,406 --> 00:45:02,741
yang ia didorong oleh teknologi

792
00:45:02,825 --> 00:45:04,827
yang maju secara pesat.

793
00:45:04,910 --> 00:45:05,911
KUASA PEMPROSESAN KOMPUTER

794
00:45:05,994 --> 00:45:09,081
Secara kasar, katakan
dari 1960-an hingga hari ini

795
00:45:09,873 --> 00:45:12,960
kuasa pemprosesan telah meningkat
kira-kira satu trilion kali.

796
00:45:13,794 --> 00:45:18,340
Tiada apa yang kita miliki
meningkat dalam kadar sebegitu.

797
00:45:18,424 --> 00:45:22,177
Kereta contohnya,
secara kasar dua kali lebih cepat.

798
00:45:22,261 --> 00:45:25,264
Hampir semua yang lain boleh diabaikan.

799
00:45:25,347 --> 00:45:27,182
Mungkin yang paling penting,

800
00:45:27,266 --> 00:45:31,353
manusia, fisiologi dan otak kita
langsung tak berevolusi.

801
00:45:31,854 --> 00:45:35,232
MASA TANPA TELEFON

802
00:45:37,401 --> 00:45:41,488
<i>Manusia pada tahap minda,</i>
<i>badan dan fizikal</i>

803
00:45:41,572 --> 00:45:43,866
<i>takkan berubah secara asasnya.</i>

804
00:45:56,837 --> 00:46:00,924
<i>Kita boleh buat kejuruteraan genetik</i>
<i>dan manusia jenis baharu di masa depan</i>

805
00:46:01,008 --> 00:46:05,220
tapi secara realistiknya,
anda hidup di dalam perkakas, otak,

806
00:46:05,304 --> 00:46:07,222
yang berusia jutaan tahun,

807
00:46:07,306 --> 00:46:10,559
kemudian ada skrin dan
di sebalik skrin itu,

808
00:46:10,642 --> 00:46:13,562
terdapat beribu-ribu jurutera
dan superkomputer

809
00:46:13,645 --> 00:46:16,106
yang mempunyai matlamat berbeza
berbanding anda,

810
00:46:16,190 --> 00:46:19,693
jadi, siapa akan menang,
dalam permainan ini? Siapa?

811
00:46:25,699 --> 00:46:26,617
Kenapa kita kalah?

812
00:46:27,159 --> 00:46:29,828
- Entah.
- Di mana dia? Ini tak normal.

813
00:46:29,912 --> 00:46:32,080
Terlalu banyak
aktiviti rakan dan keluarga?

814
00:46:32,164 --> 00:46:34,082
- Mungkin.
- Mungkin kerana iklan.

815
00:46:34,166 --> 00:46:37,795
Tak. Ada yang tak kena.
Mari tukar mod kebangkitan.

816
00:46:39,713 --> 00:46:44,051
<i>Apabila anda fikir tentang AI,</i>
<i>AI akan menghancurkan dunia</i>

817
00:46:44,134 --> 00:46:47,221
anda nampak Terminator
dan Arnold Schwarzenegger...

818
00:46:47,304 --> 00:46:48,680
Saya akan kembali.

819
00:46:48,764 --> 00:46:52,684
<i>...anda lihat dron, anda fikir,</i>
<i>"Kita akan bunuh orang dengan AI."</i>

820
00:46:53,644 --> 00:46:59,817
<i>Apa yang orang terlepas adalah</i>
<i>AI sudah pun menguasai dunia sekarang.</i>

821
00:46:59,900 --> 00:47:03,237
<i>Malah bercakap tentang "satu AI"</i>
<i>adalah hanya metafora.</i>

822
00:47:03,320 --> 00:47:09,451
Di syarikat seperti Google,
terdapat bilik-bilik yang sangat besar.

823
00:47:10,327 --> 00:47:13,121
Sesetengahnya di bawah tanah,
sesetengahnya dalam air,

824
00:47:13,205 --> 00:47:14,498
hanya komputer.

825
00:47:14,581 --> 00:47:17,835
Bertan-tan komputer seluas mata memandang.

826
00:47:18,460 --> 00:47:20,504
Ia sangat saling berkaitan

827
00:47:20,587 --> 00:47:22,923
dan mengendalikan
program yang sangat rumit

828
00:47:23,006 --> 00:47:26,009
menghantar maklmuat pergi dan balik
antara satu sama lain sepanjang masa.

829
00:47:26,802 --> 00:47:28,595
Ia mengendalikan banyak program berbeza,

830
00:47:28,679 --> 00:47:30,806
banyak produk berbeza
pada mesin yang sama.

831
00:47:31,348 --> 00:47:33,684
Ada yang boleh digambarkan
sebagai algoritma mudah,

832
00:47:33,767 --> 00:47:35,227
sesetengahnya algoritma

833
00:47:35,310 --> 00:47:37,521
yang sangat rumit sehingga
anda akan memanggilnya cerdas.

834
00:47:40,148 --> 00:47:43,777
<i>Bagi saya algoritma adalah</i>
<i>pendapat yang dibenam dalam kod...</i>

835
00:47:45,070 --> 00:47:47,656
<i>dan algoritma adalah tidak objektif.</i>

836
00:47:48,365 --> 00:47:51,577
<i>Algoritma dioptimumkan</i>
<i>kepada beberapa definisi kejayaan.</i>

837
00:47:52,244 --> 00:47:53,370
Jika anda boleh bayangkan

838
00:47:53,453 --> 00:47:57,124
jika syarikat komersial membina algoritma

839
00:47:57,207 --> 00:47:59,293
kepada definisi kejayaan mereka,

840
00:47:59,376 --> 00:48:01,503
ia satu kepentingan komersial.

841
00:48:01,587 --> 00:48:03,046
Biasanya keuntungan.

842
00:48:03,130 --> 00:48:07,384
Anda beri komputer matlamat
menyatakan, "Saya mahu hasil ini,"

843
00:48:07,467 --> 00:48:10,262
dan komputer itu sendiri
belajar cara nak melakukannya.

844
00:48:10,345 --> 00:48:12,598
Dari situlah istilah
"pembelajaran mesin" berasal.

845
00:48:12,681 --> 00:48:14,850
Setiap hari, ia jadi sedikit lebih baik

846
00:48:14,933 --> 00:48:16,977
dalam memilih catatan yang betul
mengikut urutan yang betul,

847
00:48:17,060 --> 00:48:19,438
supaya anda habiskan masa
semakin lama pada produk itu.

848
00:48:19,521 --> 00:48:22,232
Tiada sesiapa benar-benar faham
apa yang ia lakukan

849
00:48:22,316 --> 00:48:23,901
untuk mencapai matlamat itu.

850
00:48:23,984 --> 00:48:28,238
Algoritma mempunyai minda sendiri,
walaupun seseorang menulisnya,

851
00:48:28,906 --> 00:48:30,657
ia ditulis dalam cara

852
00:48:30,741 --> 00:48:35,037
anda bina mesin itu dan
kemudian mesin itu mengubah dirinya.

853
00:48:35,120 --> 00:48:37,873
Hanya segelintir pekerja di syarikat ini,

854
00:48:37,956 --> 00:48:40,000
di Facebook, Twitter dan syarikat lain.

855
00:48:40,083 --> 00:48:43,795
Hanya segelintir pekerja yang
faham cara sistem ini bekerja,

856
00:48:43,879 --> 00:48:46,715
dan malah mereka sendiri pun
tak sepenuhnya faham

857
00:48:46,798 --> 00:48:49,551
apa akan berlaku dengan
cebisan kandungan tertentu.

858
00:48:49,635 --> 00:48:55,807
Sebagai manusia, kita hampir
hilang kawalan terhadap sistem ini

859
00:48:55,891 --> 00:48:59,603
kerana ia mengawal maklumat
yang kita lihat.

860
00:48:59,686 --> 00:49:02,439
Ia mengawal kita lebih
daripada kita mengawalnya.

861
00:49:03,815 --> 00:49:07,319
Merujuk silangnya dengan
yang sepadan dalam zon geografinya.

862
00:49:07,402 --> 00:49:09,571
Kembar psikometriknya.

863
00:49:09,655 --> 00:49:12,699
Terdapat 13,694 orang yang
bertingkah laku sama dengannya

864
00:49:12,783 --> 00:49:13,700
dalam kawasannya.

865
00:49:13,784 --> 00:49:16,370
- Apa yang sohor kini dengan mereka?
- Kita perlu sesuatu yang bagus

866
00:49:16,453 --> 00:49:17,704
untuk mod kebangkitan

867
00:49:17,788 --> 00:49:19,957
memandangkan perkara biasa tak berfungsi.

868
00:49:20,040 --> 00:49:21,875
Gadis di sekolah yang comel itu pun tak.

869
00:49:22,334 --> 00:49:25,253
Ikut analisis menaikkan
kandungan politik Extreme Center

870
00:49:25,337 --> 00:49:28,256
mempunyai peluang 62.3 peratus
penglibatan jangka panjang.

871
00:49:28,340 --> 00:49:29,299
Boleh tahan.

872
00:49:30,342 --> 00:49:32,302
Tak cukup bagus sebagai dorongan.

873
00:49:32,386 --> 00:49:35,305
Kita cuba beritahu dia
tentang gambar yang ditag,

874
00:49:35,389 --> 00:49:39,017
jemputan, acara semasa,
malah mesej lansung dari Rebecca.

875
00:49:39,101 --> 00:49:42,813
Tapi bagaimana dengan
Pengguna 01265923010?

876
00:49:42,896 --> 00:49:44,648
Ya, Ben suka semua siarannya.

877
00:49:44,731 --> 00:49:47,776
Selama berbulan-bulan,
suka semua kemudian senyap.

878
00:49:47,859 --> 00:49:50,445
Saya kira 92.3 peratus peluang kebangkitan

879
00:49:50,529 --> 00:49:52,030
dengan pemberitahuan tentang Ana.

880
00:49:53,907 --> 00:49:55,993
HUBUNGAN BAHARU

881
00:49:56,535 --> 00:49:57,494
Serta kawan baharunya.

882
00:49:58,495 --> 00:50:04,001
MASA TANPA TELEFON

883
00:50:24,354 --> 00:50:26,023
BEKAS TEMAN WANITA ANDA
KINI BERTEMAN BAHARU!

884
00:50:26,106 --> 00:50:27,315
Biar betul.

885
00:50:35,657 --> 00:50:36,616
Okey.

886
00:50:37,576 --> 00:50:38,785
ANA & LUIZ
MENJALIN HUBUNGAN

887
00:50:38,869 --> 00:50:39,703
Apa?

888
00:50:41,621 --> 00:50:42,789
Itu dia! Dah kembali!

889
00:50:42,873 --> 00:50:44,374
Mari kembali buat duit.

890
00:50:44,458 --> 00:50:46,334
Serta hubungkan mereka
dengan seluruh dunia.

891
00:50:46,418 --> 00:50:49,337
Saya beri dia capaian kepada
semua maklumat dia mungkin suka.

892
00:50:49,755 --> 00:50:53,717
Pernahkan kamu tertanya-tanya jika
suapan ini bagus untuk Ben?

893
00:50:57,220 --> 00:50:58,221
- Tak.
- Tak.

894
00:51:42,349 --> 00:51:44,893
PENGUJIAN A/B
EXTREME CENTER

895
00:52:20,929 --> 00:52:24,349
<i>Bayangkan, anda melayari Facebook</i>

896
00:52:24,766 --> 00:52:29,312
dan anda menentang
kecerdasan buatan secara efektif

897
00:52:29,396 --> 00:52:31,314
yang tahu semuanya tentang anda,

898
00:52:31,398 --> 00:52:34,568
boleh meramal langkah anda seterusnya
dan anda jahil tentangnya,

899
00:52:34,651 --> 00:52:37,404
kecuali hanya video kucing dan hari lahir.

900
00:52:37,487 --> 00:52:39,656
Itu bukan perlawanan yang adil.

901
00:52:41,575 --> 00:52:43,869
Ben dan Jerry, masa untuk pergi.

902
00:52:51,126 --> 00:52:51,960
Ben?

903
00:53:02,679 --> 00:53:03,513
Ben.

904
00:53:05,182 --> 00:53:06,057
Cepat.

905
00:53:07,225 --> 00:53:08,894
Masa untuk ke sekolah. Jom.

906
00:53:13,231 --> 00:53:16,735
PUSAT UNTUK TEKNOLOGI BERPERIKEMANUSIAAN

907
00:53:31,374 --> 00:53:33,543
- Apa khabar?
- Saya gementar.

908
00:53:33,627 --> 00:53:34,628
- Yakah?
- Ya.

909
00:53:37,380 --> 00:53:39,049
Kita semua berjaga-jaga terhadap saat

910
00:53:39,132 --> 00:53:42,969
apabila teknologi mengatasi
kekuatan dan kecerdasan manusia.

911
00:53:43,053 --> 00:53:47,015
Bila ia akan menggantikan kerja kita,
jadi lebih bijak daripada manusia?

912
00:53:48,141 --> 00:53:50,101
Tetapi terdapat saat lebih awal

913
00:53:50,977 --> 00:53:55,565
apabila teknologi melebihi
dan mengatasi kelemahan manusia.

914
00:53:57,484 --> 00:54:02,030
Titik yang disilang ini
adalah punca ketagihan

915
00:54:02,113 --> 00:54:04,741
polarisasi, proses radikalisme,
peningkatan kemarahan,

916
00:54:04,824 --> 00:54:06,368
peningkatan kesia-siaan, seluruhnya.

917
00:54:07,702 --> 00:54:09,913
Ini mengatasi sifat semula jadi manusia

918
00:54:10,538 --> 00:54:13,500
dan ini mengalahkan manusia.

919
00:54:30,558 --> 00:54:31,434
Maaf.

920
00:54:41,736 --> 00:54:44,656
<i>Salah satu cara saya cuba</i>
<i>untuk buat orang faham</i>

921
00:54:44,739 --> 00:54:49,828
betapa salahnya suapan daripada
tempat seperti Facebook

922
00:54:49,911 --> 00:54:51,454
adalah bandingkan dengan Wikipedia.

923
00:54:51,538 --> 00:54:52,872
TAB BAHARU

924
00:54:52,956 --> 00:54:55,709
Apabila ke sebuah laman,
anda lihat benda sama seperti orang lain.

925
00:54:55,792 --> 00:54:56,960
WIKIPEDIA
ENSIKLOPEDIA PERCUMA

926
00:54:57,043 --> 00:55:00,297
Itu salah satu persamaan kecil kita
dalam talian.

927
00:55:00,380 --> 00:55:03,425
Bayangkan jika Wikipedia kata,

928
00:55:03,508 --> 00:55:07,178
"Kita akan beri setiap orang definisi
mengikut penyesuaian berbeza

929
00:55:07,262 --> 00:55:09,472
dan kita akan dibayar
oleh orang untuk itu."

930
00:55:09,556 --> 00:55:13,435
Wikipedia akan mengintip anda,
Wikipedia akan mengira,

931
00:55:13,518 --> 00:55:17,188
"Apa saya boleh buat
supaya orang ini berubah sedikit

932
00:55:17,272 --> 00:55:19,899
untuk kepentingan komersial tertentu?"

933
00:55:19,983 --> 00:55:21,818
Kemudian ia akan ubah catatan.

934
00:55:22,444 --> 00:55:23,570
Boleh anda bayangkan?

935
00:55:23,653 --> 00:55:24,738
Tentu boleh

936
00:55:24,821 --> 00:55:26,823
sebab itulah yang berlaku di Facebook.

937
00:55:26,906 --> 00:55:28,992
Itulah yang berlaku pada suapan YouTube.

938
00:55:29,075 --> 00:55:31,786
Apabila anda ke Google dan menaip
"perubahan iklim adalah"

939
00:55:31,870 --> 00:55:34,998
anda akan lihat jawapan berbeza
bergantung kepada tempat tinggal anda.

940
00:55:35,081 --> 00:55:36,082
PERUBAHAN IKLIM ADALAH

941
00:55:36,166 --> 00:55:38,460
Di bandar tertentu
ia diisi secara automatik

942
00:55:38,543 --> 00:55:40,462
dengan "perubahan iklim adalah penipuan."

943
00:55:40,545 --> 00:55:42,047
Dalam kes berbeza, anda akan lihat

944
00:55:42,130 --> 00:55:44,841
"perubahan iklim adalah disebabkan
kemusnahan alam."

945
00:55:44,924 --> 00:55:48,428
Fungsi itu bukan kebenaran
tentang perubahan iklim,

946
00:55:48,511 --> 00:55:51,097
tetapi tentang dari mana
anda mencarinya di Google

947
00:55:51,181 --> 00:55:53,600
dan perkara tertentu yang
Google tahu tentang minat anda.

948
00:55:55,185 --> 00:55:58,021
Malah dua rakan yang sangat rapat

949
00:55:58,104 --> 00:56:00,190
yang hampir mempunyai rakan yang sama,

950
00:56:00,273 --> 00:56:02,817
<i>mereka fikir, "Saya akan lihat</i>
<i>suapan berita pada Facebook.</i>

951
00:56:02,901 --> 00:56:06,738
<i>Saya akan lihat kemas kini yang sama."</i>
<i>Tapi ia langsung bukan begitu.</i>

952
00:56:06,821 --> 00:56:08,448
<i>Mereka lihat perkara yang sangat berbeza</i>

953
00:56:08,531 --> 00:56:10,575
<i>kerana mereka didasarkan</i>
<i>kepada komputer yang mengira</i>

954
00:56:10,658 --> 00:56:12,035
<i>apa yang sesuai untuk setiap seorang.</i>

955
00:56:12,118 --> 00:56:14,245
KE UDARA

956
00:56:14,329 --> 00:56:18,416
<i>Cara untuk memikirkannya adalah</i>
<i>berdasarkan Truman Shows.</i>

957
00:56:18,500 --> 00:56:21,294
Setiap orang ada realiti tersendiri dengan

958
00:56:22,670 --> 00:56:23,671
fakta tersendiri.

959
00:56:23,755 --> 00:56:27,008
<i>Kenapa anda rasa Truman tak pernah</i>

960
00:56:27,092 --> 00:56:30,095
<i>menemui sifat sebenar</i>
<i>dunianya hingga sekarang?</i>

961
00:56:31,054 --> 00:56:34,140
Kita terima realiti dunia yang kita wakili.

962
00:56:34,224 --> 00:56:35,141
Semudah itu.

963
00:56:35,225 --> 00:56:36,393
KE UDARA

964
00:56:36,476 --> 00:56:39,896
Lama-kelamaan, anda mempunyai
tanggapan salah yang

965
00:56:39,979 --> 00:56:41,064
semua orang setuju dengan anda,

966
00:56:41,147 --> 00:56:44,484
kerana semua orang pada
Suapan Berita anda sama seperti anda.

967
00:56:44,567 --> 00:56:49,072
Apabila anda dalam keadaan begitu,
anda sangat mudah dimanipulasi,

968
00:56:49,155 --> 00:56:51,741
dalam cara sama
anda dimanipulasi ahli silap mata.

969
00:56:51,825 --> 00:56:55,370
Ahli silap mata tunjuk helah kad
dan minta, "Pilih satu kad."

970
00:56:55,453 --> 00:56:58,373
Apa anda tak sedar adalah
mereka dah buat perangkap

971
00:56:58,456 --> 00:57:00,583
supaya anda pilih kad
yang mereka nak anda pilih.

972
00:57:00,667 --> 00:57:03,169
Begitulah cara Facebook berfungsi.
Facebook kata,

973
00:57:03,253 --> 00:57:06,172
"Hei, awak pilih kawan,
awak pilih pautan yang nak diikuti."

974
00:57:06,256 --> 00:57:08,716
Tapi itu semua mengarut.
Sama seperti ahli silap mata.

975
00:57:08,800 --> 00:57:11,302
Facebook mengawal Suapan Berita anda.

976
00:57:11,386 --> 00:57:14,514
Kita semua berfungsi dalam
sekumpulan fakta berbeza.

977
00:57:14,597 --> 00:57:16,474
Apabila itu berlaku secara besar-besaran

978
00:57:16,558 --> 00:57:20,770
anda tak lagi dapat ambil kira
atau menerima maklumat

979
00:57:20,854 --> 00:57:23,690
yang bercanggah dengan
pandangan dunia yang anda cipta.

980
00:57:23,773 --> 00:57:28,319
Maknanya, kita tak menjadi
individu yang objektif dan membina.

981
00:57:28,403 --> 00:57:32,449
Buka mata anda,
jangan percaya pembohongan! Buka mata...

982
00:57:32,532 --> 00:57:35,160
<i>Kemudian anda melihat pandangan sebaliknya</i>

983
00:57:35,243 --> 00:57:38,746
<i>dan anda mula fikir,</i>
<i>"Kenapa mereka boleh jadi bodoh?"</i>

984
00:57:38,830 --> 00:57:42,125
Lihat semua maklumat yang
saya asyik lihat ini.

985
00:57:42,208 --> 00:57:44,627
Kenapa mereka tak lihat
maklumat yang sama?"

986
00:57:44,711 --> 00:57:47,297
Jawapannya, "Mereka tak lihat
maklumat yang sama."

987
00:57:47,380 --> 00:57:50,800
Buka mata anda,
jangan percaya pembohongan!

988
00:57:52,093 --> 00:57:53,678
<i>Bagaimana sifat penyokong Republik?</i>

989
00:57:53,761 --> 00:57:55,472
Orang yang jahil.

990
00:57:55,555 --> 00:57:58,933
Parti Demokrat adalah sindiket jenayah,
bukan parti politik sebenar.

991
00:57:59,017 --> 00:58:03,188
Kajian terbaharu Pusat Kajian Pew
ke atas 10,000 orang dewasa Amerika

992
00:58:03,271 --> 00:58:05,315
mendapati kita lebih berpecah belah
berbanding sebelumnya

993
00:58:05,398 --> 00:58:09,152
dengan polarisasi peribadi dan politik
pada tahap tertinggi dalam 20 tahun.

994
00:58:11,821 --> 00:58:14,199
Lebih satu per tiga
penyokong Republik mengatakan

995
00:58:14,282 --> 00:58:16,826
Parti Demokrat adalah
ancaman kepada negara,

996
00:58:16,910 --> 00:58:20,580
lebih satu per empat penyokong Demokrat
mengatakan yang sama terhadap Republik.

997
00:58:20,663 --> 00:58:22,499
Banyak masalah yang kita bincangkan

998
00:58:22,582 --> 00:58:24,417
seperti polarisasi politik

999
00:58:24,501 --> 00:58:28,046
wujud pada tahap tertentu
pada televisyen kabel.

1000
00:58:28,129 --> 00:58:31,007
Media mempunyai masalah yang sama

1001
00:58:31,090 --> 00:58:33,343
di mana model perniagaan mereka,
secara keseluruhannya

1002
00:58:33,426 --> 00:58:35,762
adalah menjual perhatian kita
kepada pengiklan

1003
00:58:35,845 --> 00:58:38,890
dan Internet adalah cara baharu
yang lebih berkesan melakukannya.

1004
00:58:40,391 --> 00:58:44,145
Di YouTube, saya mengusahakan
pengesyoran YouTube.

1005
00:58:44,229 --> 00:58:47,148
Saya bimbang algoritma yang saya usahakan

1006
00:58:47,232 --> 00:58:50,401
sebenarnya meningkatkan
polarisasi dalam masyarakat.

1007
00:58:50,485 --> 00:58:53,112
Tapi dari sudut pandangan masa menonton,

1008
00:58:53,196 --> 00:58:57,617
polarisasi ini sangat berkesan
untuk mengekalkan orang dalam talian.

1009
00:58:58,785 --> 00:59:00,870
<i>Guru-guru hanya mengajar perkara ini</i>

1010
00:59:00,954 --> 00:59:02,288
<i>kerana dibayar untuknya.</i>

1011
00:59:02,372 --> 00:59:04,207
<i>- Ia tak masuk akal.</i>
- Hei, Benji.

1012
00:59:04,916 --> 00:59:06,292
Tiada latihan bola sepak?

1013
00:59:06,376 --> 00:59:08,878
Ada. Saya cuma menonton berita.

1014
00:59:08,962 --> 00:59:11,506
<i>Buat kajian. Apa saja yang</i>
<i>bertentangan Extreme Center...</i>

1015
00:59:11,589 --> 00:59:14,008
<i>Saya takkan panggil benda itu berita.</i>

1016
00:59:15,552 --> 00:59:18,721
Awak selalu bercakap tentang
huru-haranya dunia. Memang pun.

1017
00:59:19,305 --> 00:59:21,140
Tapi itu hanya propaganda.

1018
00:59:21,224 --> 00:59:24,060
<i>Dua-dua pun benar.</i>
<i>Semuanya tentang yang masuk akal.</i>

1019
00:59:24,769 --> 00:59:26,938
Ben, saya serius. Ini tak elok untuk awak.

1020
00:59:27,021 --> 00:59:28,690
Awak patut ke latihan bola sepak.

1021
00:59:35,154 --> 00:59:37,490
<i>Saya kongsikan hal ini kerana saya peduli.</i>

1022
00:59:37,574 --> 00:59:41,077
<i>Saya peduli yang anda diperdaya</i>
<i>dan itu tak okey.</i>

1023
00:59:41,160 --> 00:59:43,121
<i>Orang fikir algoritma direka bentuk</i>

1024
00:59:43,204 --> 00:59:46,833
<i>untuk beri mereka apa mereka mahu,</i>
<i>sebenarnya tak.</i>

1025
00:59:46,916 --> 00:59:52,589
<i>Algoritma sebenarnya cuba mencari</i>
<i>kitaran sesat yang sangat berkuasa.</i>

1026
00:59:52,672 --> 00:59:56,217
Kitaran sesat yang
paling dekat dengan minat anda.

1027
00:59:56,301 --> 00:59:59,262
Jika anda mula menonton
salah satu video itu,

1028
00:59:59,846 --> 01:00:02,223
kemudian ia akan mengesyorkan
lagi dan lagi.

1029
01:00:02,307 --> 01:00:04,934
Bukan sesiapa mahu ini berlaku.

1030
01:00:05,018 --> 01:00:07,812
Ini yang sistem pengesyoran lakukan.

1031
01:00:07,895 --> 01:00:11,190
Keterlaluan sehingga Kyrie Irving,
pemain bola keranjang terkenal,

1032
01:00:11,274 --> 01:00:14,235
percaya bumi berbentuk rata
dan dia kemudiannya minta maaf

1033
01:00:14,319 --> 01:00:16,404
kerana dia menyalahkan
kitaran sesat Youtube untuk itu.

1034
01:00:16,487 --> 01:00:18,656
Anda klik pada YouTube

1035
01:00:18,740 --> 01:00:21,534
dan ia terus mengesyorkan lagi dan lagi.

1036
01:00:21,618 --> 01:00:23,369
Ketika dia hadir ke NPR,

1037
01:00:23,453 --> 01:00:25,955
"Maaf kerana mempercayainya,
saya tak mahu mengelirukan orang,"

1038
01:00:26,039 --> 01:00:28,291
ramai pelajar ditemu ramah berkata,

1039
01:00:28,374 --> 01:00:29,667
"Mereka yang percaya
bumi rata mempengaruhi dia."

1040
01:00:31,044 --> 01:00:33,963
Teori konspirasi bumi rata disyorkan

1041
01:00:34,047 --> 01:00:37,634
beratus-ratus juta kali oleh algoritma.

1042
01:00:37,717 --> 01:00:43,890
Mudah untuk fikir yang
hanya beberapa orang bodoh percaya

1043
01:00:43,973 --> 01:00:46,893
tetapi algoritma menjadi
semakin bijak setiap hari.

1044
01:00:46,976 --> 01:00:50,188
Hari ini, ia meyakinkan orang
yang bumi rata,

1045
01:00:50,271 --> 01:00:53,816
tetapi esok, ia akan meyakinkan anda
hal salah yang lain.

1046
01:00:54,317 --> 01:00:57,820
<i>Pada tujuh November,</i>
<i>tanda pagar "Pizzagate" bermula.</i>

1047
01:00:57,904 --> 01:00:59,197
Pizzagate...

1048
01:01:00,782 --> 01:01:01,658
Aduhai.

1049
01:01:03,159 --> 01:01:06,913
<i>Saya masih tak sepenuhnya pasti</i>
<i>bagaimana ini terjadi,</i>

1050
01:01:06,996 --> 01:01:12,377
tetapi ideanya, memesan pizza bermakna
memesan orang yang diperdagangkan.

1051
01:01:12,460 --> 01:01:15,046
Apabila kumpulan itu
semakin besar di Facebook,

1052
01:01:15,129 --> 01:01:19,967
enjin pengesyoran Facebook mula
mencadangkan kepada pengguna biasa

1053
01:01:20,051 --> 01:01:21,761
untuk sertai kumpulan Pizzagate.

1054
01:01:21,844 --> 01:01:27,392
Jika pengguna, contohnya, anti vaksin
atau percaya konspirasi jejak kimia

1055
01:01:27,475 --> 01:01:30,645
atau membayangkan kepada
algoritma Facebook dalam apa cara

1056
01:01:30,728 --> 01:01:33,398
yang mereka cenderung
untuk percaya teori konspirasi

1057
01:01:33,481 --> 01:01:36,859
enjin pengesyoran Facebook
akan mengesyorkan kumpulan Pizzagate.

1058
01:01:36,943 --> 01:01:41,072
<i>Akhirnya, hal ini memuncak</i>
<i>dengan lelaki bersenjata pistol</i>

1059
01:01:41,155 --> 01:01:44,617
<i>mahu membebaskan</i>
<i>kanak-kanak dari tingkat bawah tanah</i>

1060
01:01:44,701 --> 01:01:47,036
<i>di sebuah kedai piza yang</i>
<i>tiada tingkat bawah tanah.</i>

1061
01:01:47,120 --> 01:01:49,997
- Apa awak buat di sini?
- Pastikan tiada apa-apa di bawah.

1062
01:01:50,581 --> 01:01:52,333
- Tentang apa?
- Kumpulan pedofilia.

1063
01:01:52,417 --> 01:01:53,793
- Apa?
- Kumpulan pedofilia.

1064
01:01:53,876 --> 01:01:55,878
Pizzagate. Dia cakap tentang Pizzagate.

1065
01:01:55,962 --> 01:02:00,216
Ini contoh teori konspirasi

1066
01:02:00,299 --> 01:02:03,678
yang disebarkan
di semua rangkaian sosial.

1067
01:02:03,761 --> 01:02:06,097
Enjin pengesyoran rangkaian sosial

1068
01:02:06,180 --> 01:02:07,974
mengesyorkan ini kepada pengguna

1069
01:02:08,057 --> 01:02:10,643
yang tak pernah cari istilah
"Pizzagate" dalam hidup mereka.

1070
01:02:10,727 --> 01:02:12,687
PIZZAGATE
ISU MENDALAM DEMOKRAT DAN PEDOFILIA

1071
01:02:12,770 --> 01:02:14,439
Terdapat kajian oleh MIT,

1072
01:02:14,522 --> 01:02:19,444
berita palsu di Twitter tersebar enam kali
lebih cepat berbanding berita asli.

1073
01:02:19,902 --> 01:02:21,863
Apa rupanya dunia itu nanti

1074
01:02:21,946 --> 01:02:24,741
apabila seseorang ada enam kali kelebihan
berbanding yang lain?

1075
01:02:25,283 --> 01:02:27,660
Anda boleh bayangkan perkara ini seperti

1076
01:02:27,744 --> 01:02:31,706
ia memiringkan asas tingkah laku manusia.

1077
01:02:31,789 --> 01:02:34,709
Ia buat sesetengah tingkah laku
lebih sukar dan sesetengahnya lebih mudah.

1078
01:02:34,792 --> 01:02:37,420
Anda sentiasa bebas untuk
berjalan naik ke atas bukit,

1079
01:02:37,503 --> 01:02:38,796
tapi tak ramai buat begitu,

1080
01:02:38,880 --> 01:02:43,092
jadi, pada skala masyarakat,
anda hanya memiringkan asas tingkah laku

1081
01:02:43,176 --> 01:02:45,970
lalu mengubah pemikiran dan
tingkah laku berbilion-bilion orang.

1082
01:02:46,053 --> 01:02:52,018
Kita cipta sistem yang cenderung
terhadap maklumat palsu.

1083
01:02:52,643 --> 01:02:54,437
Bukan kerana kita mahu,

1084
01:02:54,520 --> 01:02:58,816
tapi kerana maklumat palsu
jana lebih banyak wang untuk syarikat

1085
01:02:59,400 --> 01:03:01,652
berbanding kebenaran.
Kebenaran membosankan.

1086
01:03:01,986 --> 01:03:04,489
Ia model perniagaan
maklumat palsu untuk keuntungan.

1087
01:03:04,572 --> 01:03:06,532
Jana keuntungan dengan membenarkan

1088
01:03:06,616 --> 01:03:08,618
lebih banyak mesej tak terkawal

1089
01:03:08,701 --> 01:03:11,579
sampai kepada sesiapa
dengan harga terbaik.

1090
01:03:11,662 --> 01:03:13,956
<i>Disebabkan perubahan iklim? Ya.</i>

1091
01:03:14,040 --> 01:03:16,751
<i>Ia tipu helah. Ya, ia benar.</i>
<i>Itu matlamatnya.</i>

1092
01:03:16,834 --> 01:03:20,046
<i>Semakin mereka bercakap tentangnya,</i>
<i>semakin mereka memecahbelahkan kita</i>

1093
01:03:20,129 --> 01:03:22,423
<i>semakin mereka berkuasa,</i>
<i>semakin mereka mengawal.</i>

1094
01:03:22,507 --> 01:03:25,468
<i>Facebook mempunyai bertrilion-trilion</i>
<i>siaran Suapan Berita ini.</i>

1095
01:03:26,552 --> 01:03:29,180
Ia tak tahu membezakan
hal yang benar dan palsu

1096
01:03:29,639 --> 01:03:33,726
<i>sebab itulah perbualan ini</i>
<i>sangat kritikal sekarang.</i>

1097
01:03:33,810 --> 01:03:37,021
<i>Bukan saja COVID-19 yang cepat merebak.</i>

1098
01:03:37,104 --> 01:03:40,191
<i>Banyak maklumat salah</i>
<i>dalam talian tentang virus ini.</i>

1099
01:03:40,274 --> 01:03:43,694
<i>Tanggapan minum lebih banyak air</i>
<i>akan mengeluarkan virus korona dari badan</i>

1100
01:03:43,778 --> 01:03:47,490
<i>adalah salah satu mitos tentang virus ini</i>
<i>yang tersebar di media sosial.</i>

1101
01:03:47,573 --> 01:03:50,451
<i>Kerajaan merancang kejadian ini,</i>
<i>mencipta virus ini</i>

1102
01:03:50,535 --> 01:03:53,371
<i>dan telah melakukan simulasi</i>
<i>reaksi negara-negara lain.</i>

1103
01:03:53,955 --> 01:03:55,581
Virus korona adalah palsu.

1104
01:03:56,165 --> 01:03:57,959
SARS, virus korona.

1105
01:03:58,376 --> 01:04:01,045
Lihat tahun ia dibuat, 2018.

1106
01:04:01,128 --> 01:04:03,798
Saya berpendapat,
kerajaan USA memulakannya.

1107
01:04:03,881 --> 01:04:07,343
Tiada sesiapa yang sakit.

1108
01:04:07,426 --> 01:04:09,095
Tiada sesiapa tahu sesiapa yang sakit.

1109
01:04:09,178 --> 01:04:13,015
Mungkin kerajaan menggunakan
virus korona sebagai alasan

1110
01:04:13,099 --> 01:04:15,643
supaya semua orang duduk di rumah
kerana hal lain berlaku.

1111
01:04:15,726 --> 01:04:18,020
Virus korona tak membunuh,

1112
01:04:18,104 --> 01:04:20,940
tetapi radiasi 5G yang mereka keluarkan.

1113
01:04:21,023 --> 01:04:22,525
MENARA 5G DIROBOHKAN DAN DIBAKAR

1114
01:04:22,608 --> 01:04:24,569
<i>Kita dihujani khabar angin.</i>

1115
01:04:25,403 --> 01:04:28,823
<i>Orang ramai membakar</i>
<i>menara telefon bimbit.</i>

1116
01:04:28,906 --> 01:04:32,201
Kita lihat Rusia dan China menyebarkan
khabar angin dan teori konspirasi.

1117
01:04:32,285 --> 01:04:35,246
Pagi ini,
panik dan tunjuk perasaan di Ukraine...

1118
01:04:35,329 --> 01:04:38,916
Orang tak tahu apa yang benar
dan kini ia tentang hidup dan mati.

1119
01:04:40,001 --> 01:04:42,628
Sumber-sumber yang menyebarkan
maklumat palsu virus korona

1120
01:04:42,712 --> 01:04:45,798
telah mengumpulkan
lebih kurang 52 juta penglibatan.

1121
01:04:45,882 --> 01:04:50,094
Maksud awak, larutan perak berkesan.

1122
01:04:50,803 --> 01:04:54,140
Katakan ia belum diuji ke atas
jenis virus ini tetapi...

1123
01:04:54,223 --> 01:04:57,226
<i>Apa yang kita lihat dengan COVID</i>
<i>hanyalah versi melampau</i>

1124
01:04:57,310 --> 01:05:00,563
<i>apa yang berlaku</i>
<i>di seluruh ekosistem maklumat kita.</i>

1125
01:05:01,105 --> 01:05:05,026
<i>Media sosial menguatkan</i>
<i>gosip dan khabar angin pesat</i>

1126
01:05:05,109 --> 01:05:07,111
<i>sehingga ke tahap</i>
<i>kita tak tahu apa yang betul</i>

1127
01:05:07,194 --> 01:05:08,946
<i>tak kira isu apa kita peduli.</i>

1128
01:05:26,130 --> 01:05:27,465
Awak masih dalam pasukan?

1129
01:05:30,468 --> 01:05:34,430
Saya nak beli snek sebelum latihan
jika awak nak ikut.

1130
01:05:37,642 --> 01:05:38,684
Tak apalah.

1131
01:05:45,066 --> 01:05:47,526
<i>Sembilan daripada 10 orang</i>
<i>tak puas hati sekarang.</i>

1132
01:05:47,610 --> 01:05:50,613
<i>EC sama seperti mana-mana</i>
<i>gerakan politik dalam sejarah.</i>

1133
01:05:50,696 --> 01:05:54,492
<i>Kita menentang pembohongan.</i>

1134
01:05:54,575 --> 01:05:57,036
<i>Anda orang kepercayaan saya.</i>
<i>Saya percaya anda.</i>

1135
01:05:59,246 --> 01:06:02,583
- Kandungan Extreme Center hebat.
- Dia sangat menyukainya.

1136
01:06:02,667 --> 01:06:03,626
Jalankan lelongan.

1137
01:06:04,627 --> 01:06:08,547
Sejumlah 843 pembida, dia dijual untuk
4.35 sen kepada pengeluar senjata.

1138
01:06:08,631 --> 01:06:10,800
Mari promosikan beberapa acara ini.

1139
01:06:10,883 --> 01:06:13,511
Perhimpunan akan datang dalam
zon geografinya minggu ini.

1140
01:06:13,594 --> 01:06:15,179
Ada senarai <i>Vlogger</i> baharu juga.

1141
01:06:17,890 --> 01:06:22,979
<i>Sejujurnya, saya rela buat apa saja.</i>

1142
01:06:23,062 --> 01:06:24,939
<i>saya memang maksudkan, apa-apa saja.</i>

1143
01:06:32,154 --> 01:06:33,114
<i>- Langgan...</i>
- Ben?

1144
01:06:33,197 --> 01:06:35,908
<i>...dan kembali kerana saya nak beritahu</i>

1145
01:06:36,659 --> 01:06:38,869
<i>ada hal besar bakal berlaku.</i>

1146
01:06:38,953 --> 01:06:40,162
<i>Hal yang sangat besar.</i>

1147
01:06:40,788 --> 01:06:45,292
<i>Salah satu masalah tentang Facebook</i>
<i>adalah sebagai alat pujukan,</i>

1148
01:06:45,793 --> 01:06:47,920
ia mungkin alat terhebat pernah dicipta.

1149
01:06:48,004 --> 01:06:52,508
Bayangkan apa maksudnya
di tangan diktator atau autoritarian.

1150
01:06:53,718 --> 01:06:57,638
Jika anda mahu kawal populasi negara anda

1151
01:06:57,722 --> 01:07:01,308
tiada alat yang seberkesan Facebook.

1152
01:07:04,937 --> 01:07:07,398
<i>Antara implikasi paling membimbangkan</i>

1153
01:07:07,481 --> 01:07:11,360
kerajaan dan pihak berniat buruk yang
guna media sosial sebagai senjata

1154
01:07:11,444 --> 01:07:13,612
adalah ia bawa kepada bahaya nyata.

1155
01:07:13,696 --> 01:07:15,072
Antara contoh paling ketara

1156
01:07:15,156 --> 01:07:17,658
yang dapat liputan media meluas
adalah kejadian di Myanmar.

1157
01:07:17,742 --> 01:07:19,160
PEJABAT PRESIDEN MYANMAR

1158
01:07:19,243 --> 01:07:21,203
Di Myanmar,
apabila orang fikir tentang Internet

1159
01:07:21,287 --> 01:07:22,913
apa yang mereka fikir adalah Facebook.

1160
01:07:22,997 --> 01:07:25,916
Biasanya apabila
orang beli telefon bimbit,

1161
01:07:26,000 --> 01:07:29,920
pemilik kedai telefon akan
memuat turun Facebook untuk mereka

1162
01:07:30,004 --> 01:07:31,505
dan buka akaun untuk mereka.

1163
01:07:31,589 --> 01:07:34,884
Apabila orang dapat telefon,
benda pertama mereka buka

1164
01:07:34,967 --> 01:07:37,595
atau satu-satunya yang
mereka tahu buka adalah Facebook.

1165
01:07:38,179 --> 01:07:41,891
Siasatan mengejutkan terbaharu
mendedahkan kesukaran Facebook

1166
01:07:41,974 --> 01:07:43,809
untuk mengawal ucapan hina di Myanmar.

1167
01:07:43,893 --> 01:07:46,020
BERHENTI BUNUH MUSLIM

1168
01:07:46,103 --> 01:07:49,190
Facebook beri tentera dan
pihak berniat buruk lain

1169
01:07:49,273 --> 01:07:51,776
cara baharu untuk memanipulasi
pendapat umum

1170
01:07:51,859 --> 01:07:55,529
dan bantu menghasut keganasan
terhadap Muslim Rohingya

1171
01:07:55,613 --> 01:07:57,406
termasuk pembunuhan besar-besaran,

1172
01:07:58,115 --> 01:07:59,867
pembakaran seluruh kampung,

1173
01:07:59,950 --> 01:08:03,704
rogol besar-besaran dan
jenayah serius lain terhadap kemanusian

1174
01:08:03,788 --> 01:08:08,209
yang kini menyebabkan 700,000 Muslim
Rohingya melarikan diri dari negaranya.

1175
01:08:11,170 --> 01:08:16,550
Bukannya pihak propaganda melampau
tak wujud sebelum ini.

1176
01:08:16,634 --> 01:08:19,762
Cuma platform itu yang memungkinkan

1177
01:08:19,845 --> 01:08:23,724
penyebaran naratif manipulasi
dengan sangat mudah

1178
01:08:23,808 --> 01:08:25,434
dan tanpa modal yang besar.

1179
01:08:25,518 --> 01:08:27,812
Jika saya nak memanipulasi pilihan raya,

1180
01:08:27,895 --> 01:08:30,564
saya boleh pergi ke kumpulan
teori konspirasi di Facebook,

1181
01:08:30,648 --> 01:08:32,233
dan saya boleh cari seratus orang

1182
01:08:32,316 --> 01:08:34,443
yang percaya bumi ini rata,

1183
01:08:34,527 --> 01:08:37,780
dan percaya semua teori konspirasi
yang kita mendarat di bulan,

1184
01:08:37,863 --> 01:08:41,450
dan saya boleh minta Facebook,
"Beri saya seribu pengguna serupa."

1185
01:08:42,118 --> 01:08:46,080
<i>Facebook akan beri saya seribu pengguna</i>
<i>yang sama seperti mereka</i>

1186
01:08:46,163 --> 01:08:49,250
<i>yang saya kini boleh sasarkan</i>
<i>dengan lebih teori konspirasi.</i>

1187
01:08:51,168 --> 01:08:52,837
Dijual untuk 3.4 sen setanggapan.

1188
01:08:53,379 --> 01:08:54,922
Video EC baharu untuk dipromosikan.

1189
01:08:55,005 --> 01:08:56,507
Satu lagi iklan sedia dilancarkan.

1190
01:08:58,509 --> 01:09:02,138
<i>Algoritma dan kebolehan manipulasi</i>
<i>ahli politik jadi sangat pakar</i>

1191
01:09:02,221 --> 01:09:04,056
dalam belajar cara mencetuskan kita,

1192
01:09:04,140 --> 01:09:08,352
menjadi sangat bagus dalam mencipta
berita palsu sehingga kita sangka realiti

1193
01:09:08,435 --> 01:09:10,813
dan mengelirukan kita
supaya percaya penipuan itu.

1194
01:09:10,896 --> 01:09:12,606
Kawalan kita semakin berkurang

1195
01:09:12,690 --> 01:09:14,150
terhadap identiti diri dan
kepercayaan kita.

1196
01:09:31,041 --> 01:09:32,668
<i>...supaya mereka boleh pilih pihak.</i>

1197
01:09:32,751 --> 01:09:34,879
<i>Terdapat pembohongan di sana sini.</i>

1198
01:09:34,962 --> 01:09:39,967
<i>Supaya mereka boleh kekalkan kuasa,</i>
<i>supaya mereka boleh kawal semua.</i>

1199
01:09:40,050 --> 01:09:44,555
<i>Mereka boleh kawal minda kita</i>
<i>supaya mereka boleh simpan rahsia mereka.</i>

1200
01:09:44,638 --> 01:09:46,390
RAGUI KEBENARAN

1201
01:09:46,473 --> 01:09:48,517
CDC MENGAKU MENUTUP VAKSIN/AUTISME

1202
01:09:48,601 --> 01:09:50,895
<i>Bayangkan dunia di mana</i>
<i>tiada sesiapa percaya kebenaran.</i>

1203
01:09:50,978 --> 01:09:53,314
VAKSIN TAK SESUAI UNTUK SEMUA

1204
01:09:53,397 --> 01:09:55,649
<i>Semua orang percaya</i>
<i>kerajaan menipu mereka.</i>

1205
01:09:56,317 --> 01:09:58,444
<i>Semuanya adalah teori konspirasi.</i>

1206
01:09:58,527 --> 01:10:01,197
<i>"Saya tak patut percaya sesiapa.</i>
<i>Saya benci pihak satu lagi."</i>

1207
01:10:01,280 --> 01:10:02,698
Ke situlah tujuan semua ini.

1208
01:10:02,781 --> 01:10:06,160
Perubahan besar politik di Eropah
terus berlaku,

1209
01:10:06,243 --> 01:10:08,412
kali ini di Itali dan Sepanyol.

1210
01:10:08,495 --> 01:10:11,999
<i>Pakatan pusat tradisional Eropah</i>
<i>hilang majoriti</i>

1211
01:10:12,082 --> 01:10:15,002
<i>sementara parti-parti populis</i>
<i>kanan dan kiri meraih sokongan.</i>

1212
01:10:19,757 --> 01:10:20,591
Berundur.

1213
01:10:21,675 --> 01:10:22,509
Ayuh.

1214
01:10:28,390 --> 01:10:31,268
<i>Akaun-akaun ini sengaja dibuat</i>
<i>dan khususnya cuba</i>

1215
01:10:31,352 --> 01:10:34,355
<i>untuk menyebar pertikaian politik</i>
<i>di Hong Kong.</i>

1216
01:10:38,609 --> 01:10:39,610
Baiklah, Ben.

1217
01:10:42,863 --> 01:10:45,032
Bagaimana rupanya menjadi negara

1218
01:10:45,115 --> 01:10:48,410
yang sumber maklumat utamanya
adalah Facebook dan media sosial?

1219
01:10:48,953 --> 01:10:50,871
Demokrasi runtuh dengan cepat.

1220
01:10:50,955 --> 01:10:51,830
Enam bulan.

1221
01:10:51,914 --> 01:10:53,791
<i>Selepas huru-hara di Chicago,</i>

1222
01:10:53,874 --> 01:10:57,044
<i>keganasan tercetus antara</i>
<i>penunjuk perasaan dan penyokong</i>...

1223
01:10:58,003 --> 01:11:01,632
<i>Demokrasi berdepan krisis keyakinan.</i>

1224
01:11:01,715 --> 01:11:04,343
Apa yang kita lihat adalah
serangan global ke atas demokrasi.

1225
01:11:05,511 --> 01:11:07,930
<i>Kebanyakan negara yang disasarkan</i>
<i>adalah negara-negara</i>

1226
01:11:08,013 --> 01:11:09,723
<i>yang menjalankan pilihan raya demokratik.</i>

1227
01:11:10,641 --> 01:11:12,518
<i>Ini berlaku secara besar-besaran.</i>

1228
01:11:12,601 --> 01:11:15,562
Oleh wakil kerajaan,
oleh jutawan mengatakan,

1229
01:11:15,646 --> 01:11:18,524
"Saya mahu menyahstabilkan Kenya
dan Cameroon.

1230
01:11:18,607 --> 01:11:20,651
Oh, Angola? Kosnya kecil saja."

1231
01:11:20,734 --> 01:11:23,362
<i>Pilihan raya luar biasa berlangsung</i>
<i>Ahad lepas di Brazil.</i>

1232
01:11:23,445 --> 01:11:25,823
Dengan kempen yang didorong
oleh media sosial.

1233
01:11:31,036 --> 01:11:33,956
Kami dalam industri teknologi
telah mencipta alat

1234
01:11:34,039 --> 01:11:37,418
untuk menyahstabil
dan menghakis struktur masyarakat

1235
01:11:37,501 --> 01:11:40,254
di setiap negara, serentak,
di mana-mana saja.

1236
01:11:40,337 --> 01:11:44,508
Ia ada di Jerman, Sepanyol, Perancis,
Brazil, Australia.

1237
01:11:44,591 --> 01:11:46,927
Antara negara paling maju di dunia

1238
01:11:47,428 --> 01:11:49,221
kini saling meletus,

1239
01:11:49,305 --> 01:11:50,931
dan apa persamaan ia?

1240
01:11:51,974 --> 01:11:52,975
Dengan maklumat awak tahu

1241
01:11:53,058 --> 01:11:56,312
adakah awak percaya Facebook
beri kesan kepada pilihan raya 2016?

1242
01:11:56,854 --> 01:11:58,188
Susah nak jawab.

1243
01:11:58,897 --> 01:11:59,773
Ia...

1244
01:12:01,275 --> 01:12:04,653
Realitinya, banyak faktor yang terlibat.

1245
01:12:04,737 --> 01:12:07,865
Wakil daripada Facebook, Twitter
dan Google kembali ke Capitol Hill

1246
01:12:07,948 --> 01:12:09,450
untuk hari kedua testimoni

1247
01:12:09,533 --> 01:12:12,578
tentang campur tangan Rusia
dalam pilihan raya 2016.

1248
01:12:12,661 --> 01:12:17,291
Manipulasi oleh pihak ketiga
bukan digodam.

1249
01:12:18,500 --> 01:12:21,462
Pihak Rusia tak menggodam Facebook.

1250
01:12:21,545 --> 01:12:24,965
Apa mereka buat adalah menggunakan
alat yang Facebook cipta

1251
01:12:25,049 --> 01:12:27,843
untuk pengiklan dan pengguna yang sah,

1252
01:12:27,926 --> 01:12:30,346
dan mereka aplikasikanya
untuk tujuan jahat.

1253
01:12:32,014 --> 01:12:33,891
Umpama peperangan kawalan jauh.

1254
01:12:34,475 --> 01:12:36,602
Sebuah negara boleh
memanipulasi negara lain

1255
01:12:36,685 --> 01:12:39,229
tanpa perlu menyerang sempadannya.

1256
01:12:39,605 --> 01:12:40,981
<i>Kita melihat imej kegansan ini.</i>

1257
01:12:41,065 --> 01:12:43,317
<i>Nampaknya ia tong sampah</i>
<i>yang ditolak ke sana ke mari.</i>

1258
01:12:43,400 --> 01:12:45,736
Tapi ini bukan tentang siapa
anda mahu undi.

1259
01:12:46,362 --> 01:12:50,574
Ia tentang menyemai kekacauan menyeluruh
dan perpecahan dalam masyarakat.

1260
01:12:50,657 --> 01:12:53,035
<i>Ini di Huntington Beach, perarakan...</i>

1261
01:12:53,118 --> 01:12:54,870
Ia tentang membuat dua pihak

1262
01:12:54,953 --> 01:12:56,413
yang tak boleh saling mendengar,

1263
01:12:56,497 --> 01:12:58,123
yang tak mahu saling mendengar,

1264
01:12:58,207 --> 01:12:59,875
yang tak mahu saling percaya lagi.

1265
01:12:59,958 --> 01:13:02,711
<i>Di bandar ini kebencian dibuat</i>
<i>terang-terangan</i>

1266
01:13:03,295 --> 01:13:05,464
<i>dan berubah menjadi keganasan kaum.</i>

1267
01:13:05,547 --> 01:13:07,925
KETEGANGAN DI VIRGINIA
TIGA TERBUNUH DALAM KEGANASAN

1268
01:13:20,145 --> 01:13:20,979
Ben!

1269
01:13:21,605 --> 01:13:22,439
Cassandra!

1270
01:13:22,981 --> 01:13:23,816
-Cass!
-Ben!

1271
01:13:23,899 --> 01:13:25,484
Mari sini!

1272
01:13:27,486 --> 01:13:31,156
Angkat tangan. Melutut. Sekarang meniarap.

1273
01:13:36,120 --> 01:13:37,204
- Bertenang...
- Ben!

1274
01:13:37,287 --> 01:13:38,414
Hei! Angkat tangan!

1275
01:13:39,623 --> 01:13:41,291
Pusing. Meniarap ke tanah.

1276
01:13:56,807 --> 01:13:59,643
Adakah kita mahu sistem ini dijual
kepada bidaan tertinggi?

1277
01:14:01,437 --> 01:14:05,399
Untuk demokrasi dijual sepenuhnya
supaya minda sesiapa boleh dicapai,

1278
01:14:05,482 --> 01:14:08,694
sasarkan pembohongan kepada
populasi tertentu dan cipta perang budaya?

1279
01:14:09,236 --> 01:14:10,487
Adakah kita mahukannya?

1280
01:14:14,783 --> 01:14:16,493
<i>Kita ialah generasi orang...</i>

1281
01:14:16,952 --> 01:14:18,620
yang tak lagi saling bercakap.

1282
01:14:20,080 --> 01:14:23,000
Kita ialah generasi orang
yang berhenti berkawan

1283
01:14:23,083 --> 01:14:25,461
kerana orang yang mereka undi
dalam pilihan raya.

1284
01:14:25,919 --> 01:14:28,422
Kita ialah generasi orang yang
mengasingkan diri

1285
01:14:28,505 --> 01:14:30,966
untuk hanya menonton saluran
yang mengatakan kita betul.

1286
01:14:32,259 --> 01:14:36,722
Mesej saya hari ini adalah
fahaman berpuak menghancurkan kita.

1287
01:14:37,431 --> 01:14:39,433
Ia memecah-belahkan negara kita.

1288
01:14:40,267 --> 01:14:43,103
Ini bukan tindakan
orang dewasa yang waras.

1289
01:14:43,187 --> 01:14:45,314
Jika orang berhak kepada
fakta mereka sendiri

1290
01:14:45,397 --> 01:14:49,401
tak perlu ada timbang rasa,
tak perlu ada tolak ansur.

1291
01:14:49,485 --> 01:14:51,695
Malah, tiada keperluan
untuk orang berinteraksi.

1292
01:14:52,321 --> 01:14:56,617
Kita perlu ada pemahaman realiti bersama.

1293
01:14:57,201 --> 01:14:58,410
Jika tidak, kita bukan sebuah negara.

1294
01:14:59,578 --> 01:15:02,998
Untuk jangka panjang, penyelesaiannya
adalah bina lebih banyak AI

1295
01:15:03,081 --> 01:15:06,502
yang cari corak
orang yang guna perkhidmatan

1296
01:15:06,585 --> 01:15:08,128
yang tak sama dengan orang sebenar.

1297
01:15:08,212 --> 01:15:11,840
Kita membenarkan ahli teknologi
untuk memerangkapnya sebagai masalah

1298
01:15:11,924 --> 01:15:13,884
yang mereka perlu selesaikan.

1299
01:15:15,135 --> 01:15:16,470
Itu satu pembohongan.

1300
01:15:17,679 --> 01:15:20,724
Orang bercakap tentang AI
seolah-olah ia tahu kebenaran.

1301
01:15:21,683 --> 01:15:23,685
AI takkan selesaikan masalah ini.

1302
01:15:24,269 --> 01:15:27,189
AI tak boleh selesaikan
masalah berita palsu.

1303
01:15:28,649 --> 01:15:31,026
Google tiada pilihan yang mengatakan,

1304
01:15:31,109 --> 01:15:34,154
"Oh, ini konspirasi? Ini kebenaran?"

1305
01:15:34,696 --> 01:15:36,240
Sebab ia tak tahu kebenarannya.

1306
01:15:36,823 --> 01:15:40,410
Ia tiada proksi untuk kebenaran
yang lebih baik berbanding klik.

1307
01:15:41,870 --> 01:15:45,123
Jika kita tak setuju tentang kebenaran

1308
01:15:45,207 --> 01:15:47,584
atau kebenaran itu wujud,

1309
01:15:48,293 --> 01:15:49,294
habislah kita.

1310
01:15:49,753 --> 01:15:52,089
Ini masalah di bawah masalah lain

1311
01:15:52,172 --> 01:15:54,424
sebab jika kita tak setuju
tentang apa yang benar,

1312
01:15:55,092 --> 01:15:57,803
kita tak boleh keluar dari masalah ini.

1313
01:16:05,435 --> 01:16:07,729
Kita patut cadangkan dia ikuti
Kelab Bola Sepak Bumi Rata.

1314
01:16:07,813 --> 01:16:10,107
Jangan tunjuk kemas kini sukan lagi.
Dia tak libatkan diri.

1315
01:16:39,970 --> 01:16:42,764
<i>Ramai orang di Silicon Valley</i>
<i>percaya teori</i>

1316
01:16:42,848 --> 01:16:45,225
<i>yang kita membina otak hebat yang global</i>

1317
01:16:45,309 --> 01:16:48,020
<i>dan semua pengguna adalah</i>
<i>nueron kecil yang boleh ditukar ganti,</i>

1318
01:16:48,103 --> 01:16:49,563
<i>yang mana tiada satu pun penting.</i>

1319
01:16:50,230 --> 01:16:53,150
<i>Ia meletakkan orang ke dalam</i>
<i>satu peranan aneh</i>

1320
01:16:53,233 --> 01:16:56,069
yang mana anda hanya
elemen komputer kecil

1321
01:16:56,153 --> 01:16:58,905
yang kami programkan
melalui manipulasi tingkah laku

1322
01:16:58,989 --> 01:17:02,367
supaya dapat berkhidmat kepada
otak gergasi dan anda tak penting.

1323
01:17:02,451 --> 01:17:04,911
Anda takkan dibayar,
anda takkan diperakui,

1324
01:17:04,995 --> 01:17:06,455
anda tiada penentuan kendiri.

1325
01:17:06,538 --> 01:17:09,416
Kami hanya memanipulasi anda
kerana anda adalah nod komputer,

1326
01:17:09,499 --> 01:17:12,336
kami perlu programkan anda
kerana itulah fungsi nod komputer.

1327
01:17:20,093 --> 01:17:21,094
Aduhai.

1328
01:17:21,928 --> 01:17:25,390
<i>Apabila anda memikirkan teknologi</i>
<i>sebagai ancaman kewujudan,</i>

1329
01:17:25,474 --> 01:17:28,060
itu dakwaan yang besar dan...

1330
01:17:29,603 --> 01:17:33,982
mudah untuk anda fikir,
"Okey, saya main telefon...

1331
01:17:35,609 --> 01:17:37,235
menatal, klik, meggunakannya.

1332
01:17:37,319 --> 01:17:39,196
Di mana ancaman kewujudannya?

1333
01:17:39,946 --> 01:17:41,615
Ada superkomputer,

1334
01:17:41,698 --> 01:17:43,950
di sebalik skrin,
menunjuk kepada otak saya,

1335
01:17:44,409 --> 01:17:47,537
buat saya menonton sebuah video lagi.
Di mana ancaman kewujudan?"

1336
01:17:54,252 --> 01:17:59,341
<i>Ini bukan tentang teknologi</i>
<i>menjadi ancaman kewujudan.</i>

1337
01:18:02,636 --> 01:18:04,346
PERSIDANGAN SENAT U.S
TENTANG TEKNOLOGI PUJUKAN

1338
01:18:04,429 --> 01:18:08,850
<i>Kemampuan teknologi untuk mengeluarkan</i>
<i>yang terburuk dalam masyarakat</i>

1339
01:18:09,559 --> 01:18:13,522
<i>dan yang terburuk dalam masyarakat</i>
<i>adalah ancaman kewujudannya.</i>

1340
01:18:13,605 --> 01:18:15,899
SENAT USA

1341
01:18:18,819 --> 01:18:23,115
Jika teknologi mencipta
keadaan huru-hara besar-besaran,

1342
01:18:23,198 --> 01:18:24,533
<i>kemarahan, ketidaksopanan,</i>

1343
01:18:24,616 --> 01:18:26,326
<i>kurang kepercayaan antara satu sama lain,</i>

1344
01:18:27,452 --> 01:18:30,622
<i>kesunyian, keterasingan,</i>
<i>lebih banyak polarisasi,</i>

1345
01:18:30,706 --> 01:18:33,333
<i>lebih banyak pilihan raya digodam,</i>
<i>lebih banyak populisme,</i>

1346
01:18:33,917 --> 01:18:36,962
lebih gangguan dan ketidakmampuan
untuk fokus pada isu sebenar..<i>.</i>

1347
01:18:37,963 --> 01:18:39,214
itu hanya masyarakat.

1348
01:18:40,340 --> 01:18:46,388
Kini masyarakat tak mampu
untuk menyembuhkan dirinya

1349
01:18:46,471 --> 01:18:48,515
dan hanya menjadi huru-hara.

1350
01:18:51,977 --> 01:18:54,938
Kesannya kepada setiap orang
walaupun anda tak guna produk itu.

1351
01:18:55,021 --> 01:18:57,524
Alat ini telah menjadi
Frankensteins digital

1352
01:18:57,607 --> 01:19:00,068
yang mengubah dunia
dalam imej ia sendiri

1353
01:19:00,152 --> 01:19:01,862
sama ada ia kesihatan mental kanak-kanak

1354
01:19:01,945 --> 01:19:04,489
atau politik dan wacana politik kita

1355
01:19:04,573 --> 01:19:07,492
tanpa memikul tanggungjawab
kerana ambil alih perbincangan awam.

1356
01:19:07,576 --> 01:19:10,579
- Ia kembali kepada...
- Awak rasa siapa yang bertanggungjawab?

1357
01:19:10,662 --> 01:19:13,582
Kita perlu buat platform itu
bertanggungjawab kerana

1358
01:19:13,665 --> 01:19:15,584
ketika ia menguasai
pengiklanan pilihan raya,

1359
01:19:15,667 --> 01:19:17,794
ia bertanggungjawab
untuk melindungi pilihan raya.

1360
01:19:17,878 --> 01:19:20,380
Ketika ia menguasai kesihatan mental
kanak-kanak atau kartun,

1361
01:19:20,464 --> 01:19:22,716
ia bertanggungjawab melindungi kartun.

1362
01:19:23,717 --> 01:19:27,929
Perlumbaan untuk mengekalkan
perhatian orang takkan tamat.

1363
01:19:28,388 --> 01:19:31,850
Teknologi kita akan jadi lebih bersepadu
dalam kehidupan, bukan kurang.

1364
01:19:31,933 --> 01:19:34,895
AI akan jadi lebih bijak meramal
apa yang buat kita kekal di skrin

1365
01:19:34,978 --> 01:19:37,105
bukan semakin berkurang.

1366
01:19:38,940 --> 01:19:42,027
Saya berusia 62 tahun,

1367
01:19:42,110 --> 01:19:45,155
semakin tua apabila
semakin panjang perbincangan ini,

1368
01:19:45,238 --> 01:19:47,365
tapi saya perlu katakan...

1369
01:19:48,700 --> 01:19:52,370
saya mungkin sudah tiada di dunia ini
dan saya mungkin bersyukur dengannya

1370
01:19:52,454 --> 01:19:54,331
apabila semua ini menjadi buruk.

1371
01:19:54,790 --> 01:19:59,586
Sebab saya rasa ia sangat menakutkan saya.

1372
01:20:00,921 --> 01:20:03,048
Adakah awak melihatnya begitu?

1373
01:20:03,548 --> 01:20:06,885
Atau saya keterlaluan pada situasi
yang saya tak cukup faham?

1374
01:20:09,930 --> 01:20:11,598
Apa yang awak paling bimbangkan?

1375
01:20:15,519 --> 01:20:18,480
Dalam jangka masa pendek...

1376
01:20:19,523 --> 01:20:20,524
perang saudara.

1377
01:20:24,444 --> 01:20:29,908
Jika kita teruskan keadaan biasa,
katakan untuk 20 tahun lagi...

1378
01:20:31,117 --> 01:20:34,579
kita mungkin musnahkan ketamadunan kita
melalui kejahilan yang disengajakan.

1379
01:20:34,663 --> 01:20:37,958
Kita mungkin gagal berdepan
cabaran perubahan iklim.

1380
01:20:38,041 --> 01:20:42,087
Kita mungkin merendahkan
martabat demokrasi dunia,

1381
01:20:42,170 --> 01:20:46,132
sehingga ia berada dalam
disfungsi autokratik aneh.

1382
01:20:46,216 --> 01:20:48,426
Kita mungkin memusnahkan ekonomi global.

1383
01:20:49,177 --> 01:20:52,264
Kita mungkin tak selamat.

1384
01:20:52,347 --> 01:20:54,808
Saya melihatnya sebagai kewujudan.

1385
01:21:02,524 --> 01:21:04,985
<i>Adakah ini generasi manusia terakhir</i>

1386
01:21:05,068 --> 01:21:08,488
<i>yang akan tahu rupa dunia</i>
<i>sebelum ilusi ini ambil alih?</i>

1387
01:21:11,074 --> 01:21:14,578
Bagaimana nak sedar dari matrik
jika anda tak tahu anda di dalamnya?

1388
01:21:17,747 --> 01:21:23,253
"Sama ada menjadi utopia atau
kejahilan akan jadi perlumbaan geganti

1389
01:21:23,336 --> 01:21:27,299
sehinggalah ke saat akhir..."
BUCKMINSTER FULLER

1390
01:21:27,382 --> 01:21:30,635
Banyak yang kami katakan
bunyinya seperti...

1391
01:21:31,511 --> 01:21:33,680
melihat pada satu aspek saja.

1392
01:21:33,763 --> 01:21:36,808
"Oh, Tuhan. Teknologi merosakkan dunia

1393
01:21:36,892 --> 01:21:38,059
dan merosakkan anak-anak,"

1394
01:21:38,143 --> 01:21:39,269
tapi sebenarnya, tak.

1395
01:21:40,228 --> 01:21:45,567
Ia mengelirukan kerana ia utopia
dan distopia dalam masa serentak.

1396
01:21:45,942 --> 01:21:50,447
Saya boleh tekan butang pada
telefon dan kereta muncul dalam 30 saat,

1397
01:21:50,530 --> 01:21:52,699
saya boleh ke tempat saya perlu.

1398
01:21:52,782 --> 01:21:55,660
Itu keajaiban. Itu mengagumkan.

1399
01:21:56,161 --> 01:21:57,662
Ketika bina butang "Like"

1400
01:21:57,746 --> 01:22:01,499
motivasi kami "Bolehkah kami
sebarkan hal positif dan kasih sayang?"

1401
01:22:01,583 --> 01:22:05,003
Idea yang pada hari ini,
remaja akan murung

1402
01:22:05,086 --> 01:22:06,379
jika tak dapat cukup "Like"

1403
01:22:06,463 --> 01:22:08,632
atau ia membawa kepada polarisasi politik,

1404
01:22:08,715 --> 01:22:09,883
langsung tak terlintas.

1405
01:22:09,966 --> 01:22:12,135
Saya tak rasa mereka awalnya berniat keji.

1406
01:22:13,511 --> 01:22:15,764
Ia hanya model perniagaan yang bermasalah.

1407
01:22:15,847 --> 01:22:20,226
Anda boleh tamatkan perkhidmatan
dan musnahkan apa saja.

1408
01:22:20,310 --> 01:22:24,522
Dua puluh bilion dolar
nilai pemegang saham dan disaman.

1409
01:22:24,606 --> 01:22:27,108
Tapi anda tak boleh tarik
apa yang dah dikeluarkan.

1410
01:22:27,192 --> 01:22:30,403
Anda boleh buat sedikit perubahan
tetapi akhirnya,

1411
01:22:30,487 --> 01:22:34,032
anda perlukan tingkatkan hasil dan
penggunaan, setiap suku tahun.

1412
01:22:34,658 --> 01:22:37,535
Semakin besar, semakin sukar
untuk sesiapa berubah.

1413
01:22:38,495 --> 01:22:43,458
Bagi saya ia sekumpulan orang
yang terperangkap dalam model perniagaan,

1414
01:22:43,541 --> 01:22:46,169
insentif ekonomi dan tekanan pelabur

1415
01:22:46,252 --> 01:22:48,922
yang menjadikannya hampir mustahil
untuk buat hal lain.

1416
01:22:49,005 --> 01:22:50,924
Kita perlu terima yang tak mengapa

1417
01:22:51,007 --> 01:22:53,176
bagi syarikat untuk fokus jana keuntungan.

1418
01:22:53,259 --> 01:22:56,888
Apa yang tak okey adalah
ketiadaan peraturan, kawalan, pesaing,

1419
01:22:56,972 --> 01:23:00,850
dan syarikat-syarikat ini
bertindak seolah-olah sebagai kerajaan.

1420
01:23:00,934 --> 01:23:03,353
Kemudian mereka kata,
"Kami boleh kawal sendiri."

1421
01:23:03,436 --> 01:23:05,981
Itu satu pembohongan. Tak masuk akal.

1422
01:23:06,064 --> 01:23:09,150
Insentif kewangan menguasai dunia,

1423
01:23:09,234 --> 01:23:15,573
sebarang penyelesaian kepada masalah ini
perlu selaras dengan insentif kewangan.

1424
01:23:16,074 --> 01:23:18,785
Tiada sebab fiskal untuk
syarikat ini berubah.

1425
01:23:18,868 --> 01:23:21,329
Sebab itu saya fikir kita perlu kawalan.

1426
01:23:21,413 --> 01:23:24,290
Syarikat telefon mempunyai
banyak data sensitif tentang anda

1427
01:23:24,374 --> 01:23:27,544
dan ada banyak undang-undang untuk
memastikan mereka tak buat salah.

1428
01:23:27,627 --> 01:23:31,506
Kita hampir tiada undang-undang
tentang privasi digital, misalnya.

1429
01:23:31,589 --> 01:23:34,426
Kita boleh kenakan cukai ke atas
pengumpulan dan pemprosesan data.

1430
01:23:34,509 --> 01:23:37,554
Dalam cara yang sama
apabila anda bayar bil air,

1431
01:23:37,637 --> 01:23:39,723
dengan mengawasi
jumlah air yang anda guna,

1432
01:23:39,806 --> 01:23:43,226
kenakan cukai ke atas syarikat ini
ke atas aset data yang mereka ada.

1433
01:23:43,309 --> 01:23:44,769
Itu beri mereka sebab fiskal

1434
01:23:44,853 --> 01:23:47,856
untuk tidak memperoleh
setiap data di dunia ini.

1435
01:23:47,939 --> 01:23:50,567
Undang-undang jauh ketinggalan
berbandingnya,

1436
01:23:50,650 --> 01:23:55,864
tapi saya tahu situasi semasa wujud
bukan untuk melindungi pengguna

1437
01:23:55,947 --> 01:23:58,700
tapi untuk melindungi hak dan keistimewaan

1438
01:23:58,783 --> 01:24:01,453
syarikat-syarikat besar yang
sangat kaya ini.

1439
01:24:02,245 --> 01:24:05,832
Adakah kita akan selamanya mengikut
orang terkaya dan paling berkuasa?

1440
01:24:05,915 --> 01:24:07,417
Atau adakah kita akan kata,

1441
01:24:07,959 --> 01:24:12,047
"Ada masanya, ia untuk kepentingan negara,

1442
01:24:12,130 --> 01:24:15,592
ada masanya ia untuk kepentingan pengguna,

1443
01:24:15,675 --> 01:24:17,385
itu sebenarnya lebih penting

1444
01:24:18,011 --> 01:24:21,473
daripada keuntungan seseorang
yang sudah pun jutawan."

1445
01:24:21,556 --> 01:24:26,603
Pasaran ini menjejaskan demokrasi
dan kebebasan,

1446
01:24:26,686 --> 01:24:28,521
dan ia patut diharamkan.

1447
01:24:29,147 --> 01:24:31,816
Ini bukan cadangan yang radikal.

1448
01:24:31,900 --> 01:24:34,194
Ada pasaran di luar sana
yang kita haramkan.

1449
01:24:34,277 --> 01:24:36,988
Kita haramkan pasaran organ manusia.

1450
01:24:37,072 --> 01:24:39,491
Kita haramkan pasaran hamba manusia.

1451
01:24:39,949 --> 01:24:44,037
Sebab kesannya memusnahkan
dan tak dapat dielakkan.

1452
01:24:44,537 --> 01:24:45,830
Kita hidup dalam dunia

1453
01:24:45,914 --> 01:24:50,001
yang mana nilai pokok lebih tinggi
jika mati berbanding hidup,

1454
01:24:50,085 --> 01:24:53,838
yang mana nilai ikan paus lebih tinggi
jika mati berbanding hidup.

1455
01:24:53,922 --> 01:24:56,341
Selama mana ekonomi kita berfungsi begitu

1456
01:24:56,424 --> 01:24:58,134
dan syarikat besar tak dikawal,

1457
01:24:58,218 --> 01:25:00,678
mereka akan terus memusnahkan pokok,

1458
01:25:00,762 --> 01:25:01,763
bunuh ikan paus,

1459
01:25:01,846 --> 01:25:06,101
melombong bumi dan
menyedut minyak dari tanah,

1460
01:25:06,184 --> 01:25:08,394
walaupun kita tahu ia memusnahkan planet

1461
01:25:08,478 --> 01:25:12,148
dan kita tahu ia akan tinggalkan
dunia buruk untuk generasi akan datang.

1462
01:25:12,232 --> 01:25:13,858
Ini pemikiran jangka pendek

1463
01:25:13,942 --> 01:25:16,694
berpaksikan keuntungan,

1464
01:25:16,778 --> 01:25:20,156
seolah-olah setiap syarikat
bertindak ikut kepentingan

1465
01:25:20,240 --> 01:25:21,950
akan membuahkan hasil terbaik.

1466
01:25:22,033 --> 01:25:24,494
Ini telah lama beri kesan
kepada persekitaran.

1467
01:25:24,577 --> 01:25:27,288
Apa yang mengejutkan dan
harapnya perkara terakhir

1468
01:25:27,372 --> 01:25:29,207
yang akan menyedarkan kita

1469
01:25:29,290 --> 01:25:31,709
tentang betapa cacatnya
teori ini dari awal

1470
01:25:31,793 --> 01:25:35,004
untuk melihat yang kini,
kitalah pokok, kitalah ikan paus.

1471
01:25:35,088 --> 01:25:37,048
Perhatian kita boleh dilombong.

1472
01:25:37,132 --> 01:25:39,134
Kita lebih menguntungkan bagi syarikat

1473
01:25:39,217 --> 01:25:41,594
jika kita meluangkan masa merenung skrin,

1474
01:25:41,678 --> 01:25:42,971
merenung iklan,

1475
01:25:43,054 --> 01:25:45,890
berbanding jika kita luangkan masa
menikmati hidup sebaiknya.

1476
01:25:45,974 --> 01:25:47,559
Kita melihat hasilnya.

1477
01:25:47,642 --> 01:25:50,687
Kita melihat syarikat guna
kecerdasan buatan yang berkuasa

1478
01:25:50,770 --> 01:25:53,648
untuk mengakali kita dan
memikirkan cara tarik perhatian kita

1479
01:25:53,731 --> 01:25:55,358
ke arah perkara
yang mereka mahu kita lihat,

1480
01:25:55,441 --> 01:25:57,277
berbanding perkara yang paling konsisten

1481
01:25:57,360 --> 01:25:59,237
dengan matlamat, nilai dan hidup kita.

1482
01:26:02,991 --> 01:26:04,450
STEVE JOBS
UCAPAN HARI INI

1483
01:26:05,535 --> 01:26:06,911
<i>Komputer bagi saya adalah...</i>

1484
01:26:06,995 --> 01:26:10,290
<i>alat yang paling luar biasa</i>
<i>yang kita pernah cipta.</i>

1485
01:26:11,124 --> 01:26:13,877
<i>Ia setara dengan basikal untuk minda kita.</i>

1486
01:26:15,628 --> 01:26:20,091
Idea teknologi berperikemanusiaan,
di situlah Silicon Valley bermula.

1487
01:26:21,050 --> 01:26:25,722
Kita lupa padanya kerana
ia menjadi perkara hebat untuk dibuat

1488
01:26:25,805 --> 01:26:27,265
berbanding perkara yang betul
untuk dibuat.

1489
01:26:27,348 --> 01:26:29,726
Internet adalah tempat yang aneh dan gila.

1490
01:26:29,809 --> 01:26:31,394
Ia uji kaji.

1491
01:26:31,477 --> 01:26:34,731
Perkara kreatif berlaku di internet
dan tentunya masih berlaku,

1492
01:26:34,814 --> 01:26:38,610
tapi ia terasa seperti pasar raya besar.

1493
01:26:38,693 --> 01:26:44,157
Rasanya seperti,
"Tentu ada lebih lagi selain itu."

1494
01:26:46,743 --> 01:26:48,411
Saya seorang yang optimis.

1495
01:26:48,494 --> 01:26:52,123
Sebab saya fikir kita boleh ubah
rupa dan maksud media sosial.

1496
01:26:54,083 --> 01:26:57,921
Cara teknologi berfungsi bukan
hukum fizik. Ia tak tetap.

1497
01:26:58,004 --> 01:27:02,175
Ini pilihan yang manusia
seperti saya telah buat.

1498
01:27:02,759 --> 01:27:05,345
Manusia boleh mengubah teknologi itu.

1499
01:27:06,971 --> 01:27:09,974
Persoalannya sekarang adalah
sama ada kita sanggup mengaku

1500
01:27:10,475 --> 01:27:15,438
bahawa hasil buruk itu
adalah produk hasil kerja kita.

1501
01:27:21,027 --> 01:27:24,864
Kita bina benda ini dan
bertanggungjawab mengubahnya.

1502
01:27:37,210 --> 01:27:42,298
<i>Model penyarian perhatian</i>
<i>bukan cara kita mahu layan manusia.</i>

1503
01:27:46,094 --> 01:27:48,137
Saya saja atau...

1504
01:27:49,847 --> 01:27:50,848
Kasihan dia.

1505
01:27:51,516 --> 01:27:53,226
<i>Struktur masyarakat yang sihat</i>

1506
01:27:53,309 --> 01:27:56,562
<i>bergantung kepada kita melenyapkan</i>
<i>model perniagaan bermasalah ini.</i>

1507
01:28:04,654 --> 01:28:08,199
<i>Kita boleh tuntut supaya produk-produk</i>
<i>direka bentuk dengan perikemanusiaan.</i>

1508
01:28:09,409 --> 01:28:13,121
<i>Kita boleh tuntut agar tak diperlakukan</i>
<i>sebagai sumber yang boleh diambil.</i>

1509
01:28:15,164 --> 01:28:18,584
<i>Matlamatnya boleh jadi,</i>
<i>"Bagaimana nak jadikan dunia lebih baik?"</i>

1510
01:28:20,461 --> 01:28:23,798
<i>Sepanjang sejarah,</i>
<i>setiap kali sesuatu jadi lebih baik,</i>

1511
01:28:23,881 --> 01:28:26,342
adalah disebabkan seseorang bersuara,

1512
01:28:26,426 --> 01:28:28,428
"Ini mengarut.
Kita boleh buat lebih baik."

1513
01:28:29,178 --> 01:28:32,557
<i>Kritikan yang mendorong peningkatan.</i>

1514
01:28:33,141 --> 01:28:35,393
<i>Krtikan adalah optimis sebenar.</i>

1515
01:28:38,313 --> 01:28:39,147
Helo.

1516
01:28:46,195 --> 01:28:47,697
Nampak tak masuk akal, bukan?

1517
01:28:47,780 --> 01:28:51,534
Cara asas perkara ini direka bentuk...

1518
01:28:52,994 --> 01:28:54,704
tak menuju ke arah yang baik.

1519
01:28:55,246 --> 01:28:56,873
Seluruhnya.

1520
01:28:56,956 --> 01:29:00,626
Macam tak masuk akal untuk kata.
kita perlu ubah semua itu,

1521
01:29:01,169 --> 01:29:02,670
tapi itu yang kita perlu buat.

1522
01:29:04,339 --> 01:29:05,923
Awak rasa kita boleh?

1523
01:29:07,383 --> 01:29:08,301
Kita perlu.

1524
01:29:21,314 --> 01:29:24,942
Nampaknya awak sangat optimis.

1525
01:29:26,194 --> 01:29:27,195
Nampak begitukah?

1526
01:29:27,653 --> 01:29:30,114
Tak sangka awak cakap begitu

1527
01:29:30,198 --> 01:29:33,409
sebab saya rasa, "Yakah?
Saya rasa kita menuju distopia.

1528
01:29:33,493 --> 01:29:35,328
Kita dalam laluan pantas ke distopia

1529
01:29:35,411 --> 01:29:37,830
dan perlu keajaiban
untuk selamatkan kita."

1530
01:29:37,914 --> 01:29:40,291
Keajaiban itu tentunya, kehendak bersama.

1531
01:29:41,000 --> 01:29:44,587
Saya optimis yang kita akan selesaikannya

1532
01:29:44,670 --> 01:29:47,048
tapi saya rasa tentu ambil masa panjang.

1533
01:29:47,131 --> 01:29:50,385
Sebab tak semua menganggapnya
sebagai masalah.

1534
01:29:50,468 --> 01:29:55,890
Bagi saya salah satu kegagalan terbesar
dalam teknologi hari ini

1535
01:29:55,973 --> 01:29:58,643
adalah kegagalan sebenar dalam kepimpinan,

1536
01:29:58,726 --> 01:30:01,979
orang tampil dan melakukan
perbualan terbuka begini

1537
01:30:02,063 --> 01:30:05,900
tentang perkara yang bukan saja baik
tetapi yang tak sempurna

1538
01:30:05,983 --> 01:30:08,194
supaya seseorang boleh bina
sesuatu yang baharu.

1539
01:30:08,277 --> 01:30:10,321
Asasnya,

1540
01:30:10,405 --> 01:30:14,617
mesin ini takkan lenyap kecuali
dengan tekanan awam yang besar.

1541
01:30:14,700 --> 01:30:18,329
Dengan mengadakan perbualan ini
dan meluahkan pendapat anda,

1542
01:30:18,413 --> 01:30:21,082
dalam sesetengah kes
melalui teknologi yang sama,

1543
01:30:21,165 --> 01:30:24,252
kita boleh mula mengubah arah aliran
dan perbualan.

1544
01:30:24,335 --> 01:30:27,004
Mungkin aneh tapi ini dunia
dan komuniti saya,

1545
01:30:27,088 --> 01:30:29,632
saya tak benci mereka dan tak mahu
rosakkan Google atau Facebook.

1546
01:30:29,715 --> 01:30:32,885
Saya hanya mahu buat pembaharuan
supaya ia tak musnahkan dunia.

1547
01:30:32,969 --> 01:30:35,513
Saya padam banyak aplikasi
daripada telefon saya

1548
01:30:35,596 --> 01:30:37,723
yang saya rasa hanya buang masa.

1549
01:30:37,807 --> 01:30:40,685
Semua aplikasi media sosial,
aplikasi berita,

1550
01:30:40,768 --> 01:30:42,520
dan saya matikan pemberitahuan

1551
01:30:42,603 --> 01:30:45,815
pada apa-apa saja yang
mengegarkan kaki saya dengan maklumat

1552
01:30:45,898 --> 01:30:48,943
yang tak kena masa dan
tak penting bagi saya sekarang.

1553
01:30:49,026 --> 01:30:51,279
Sebab yang sama
saya tak simpan biskut dalam poket.

1554
01:30:51,362 --> 01:30:53,197
Kurangkan jumlah pemberitahuan
yang anda terima.

1555
01:30:53,281 --> 01:30:54,449
Matikan pemberitahuan.

1556
01:30:54,532 --> 01:30:55,950
Matikan semua pemberitahuan.

1557
01:30:56,033 --> 01:30:58,536
Saya tak lagi guna Google,
saya guna Gwant

1558
01:30:58,619 --> 01:31:01,497
yang tak simpan sejarah carian anda.

1559
01:31:01,581 --> 01:31:04,459
Jangan terima video yang
disyorkan kepada anda di YouTube.

1560
01:31:04,542 --> 01:31:07,003
Sentiasa pilih.
Ada cara lain untuk menentang.

1561
01:31:07,086 --> 01:31:12,133
Ada banyak sambungan Google
yang membuang pengesyoran.

1562
01:31:12,216 --> 01:31:15,636
Saya suka awak cadangkan sesuatu
untuk buat asal apa yang awak cipta.

1563
01:31:15,720 --> 01:31:16,554
Ya.

1564
01:31:16,929 --> 01:31:21,642
Sebelum anda kongsi, periksa fakta,
ambil kira sumber, buat carian lebih.

1565
01:31:21,726 --> 01:31:25,104
Jika ia nampak seperti sesuatu yang
direka untuk ganggu emosi anda,

1566
01:31:25,188 --> 01:31:26,314
ia mungkin benar.

1567
01:31:26,397 --> 01:31:29,025
Pada dasarnya, anda mengundi
dengan klik anda.

1568
01:31:29,108 --> 01:31:30,359
Jika klik pada umpan klik,

1569
01:31:30,443 --> 01:31:33,779
anda cipta insentif kewangan
yang mengabadikan sistem yang ada ini.

1570
01:31:33,863 --> 01:31:36,949
Pastikan anda dapat
banyak maklumat berbeza

1571
01:31:37,033 --> 01:31:37,909
dalam kehidupan anda sendiri.

1572
01:31:37,992 --> 01:31:40,995
Saya ikut orang di Twitter
yang tak sependapat dengan saya

1573
01:31:41,078 --> 01:31:44,207
sebab saya mahu terdedah
kepada pandangan yang berbeza.

1574
01:31:44,290 --> 01:31:46,584
Ramai orang dalam industri teknologi

1575
01:31:46,667 --> 01:31:49,045
tak beri peranti ini
kepada anak-anak mereka.

1576
01:31:49,128 --> 01:31:51,047
Anak-anak saya langsung
tak guna media sosial.

1577
01:31:51,964 --> 01:31:53,549
Adakah itu peraturan atau...

1578
01:31:53,633 --> 01:31:54,509
Peraturan.

1579
01:31:55,092 --> 01:31:57,845
Kami taksub tentangnya.

1580
01:31:57,929 --> 01:31:59,222
Kami gila.

1581
01:31:59,305 --> 01:32:05,603
Kami tak benar kanak-anak kami
luangkan masa pada skrin.

1582
01:32:05,686 --> 01:32:08,564
Saya buat tiga peraturan mudah

1583
01:32:08,648 --> 01:32:12,610
yang memudahkan hidup bagi keluarga
dan disokong oleh kajian.

1584
01:32:12,693 --> 01:32:15,571
Peraturan pertama adalah
semua peranti di luar bilik tidur

1585
01:32:15,655 --> 01:32:17,281
pada masa yang sama setiap malam.

1586
01:32:17,365 --> 01:32:20,535
Tak kira, sejam setengah sebelum tidur
keluarkan semua peranti.

1587
01:32:20,618 --> 01:32:24,038
Peraturan kedua, tiada media sosial
sehingga sekolah menengah.

1588
01:32:24,121 --> 01:32:26,374
Secara peribadi, usia 16 tahun sesuai.

1589
01:32:26,457 --> 01:32:28,960
Menengah rendah dah pun susah
Tunggu sehingga sekolah tinggi.

1590
01:32:29,043 --> 01:32:32,964
Peraturan ketiga adalah
buat peruntukan masa dengan anak-anak.

1591
01:32:33,047 --> 01:32:34,757
Bincang dengan mereka,

1592
01:32:34,840 --> 01:32:37,927
"Berapa lama kamu nak
luangkan masa dengan peranti kamu,

1593
01:32:38,010 --> 01:32:39,637
berapa lama kamu fikir bagus,"

1594
01:32:39,720 --> 01:32:41,597
mereka biasanya akan beritahu
sesuatu yang berasas.

1595
01:32:42,056 --> 01:32:44,642
Saya memang tahu

1596
01:32:44,725 --> 01:32:48,563
yang saya takkan buat sesiapa
padam media sosial mereka,

1597
01:32:48,646 --> 01:32:50,439
tapi rasanya saya boleh buat beberapa

1598
01:32:50,523 --> 01:32:54,402
dan hanya beberapa orang
padam akaun sangat besar maknanya

1599
01:32:54,485 --> 01:32:58,406
kerana ia cipta ruang untuk perbualan

1600
01:32:58,489 --> 01:33:00,908
kerana saya mahu ada cukup orang
dalam masyarakat

1601
01:33:00,992 --> 01:33:05,204
yang bebas daripada manipulasi mesin
untuk perbualan sosial

1602
01:33:05,288 --> 01:33:07,540
yang tak terikat oleh manipulasi mesin.

1603
01:33:07,623 --> 01:33:10,126
Jadi, buatlah! Keluar dari sistem.

1604
01:33:10,209 --> 01:33:12,503
Ya, padam. Keluar dari benda bodoh itu.

1605
01:33:13,546 --> 01:33:16,507
Dunia ini indah. Cantik di luar sana.

1606
01:33:18,467 --> 01:33:19,969
IKUTI KAMI DI MEDIA SOSIAL

1607
01:33:20,052 --> 01:33:21,887
GURAU SAJA.

1608
01:33:21,971 --> 01:33:27,476
MARI BERBUAL UNTUK MEMPERBAIKINYA.
THESOCIALDILEMMA.COM



