1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:19,978 --> 00:00:24,774
"NADA GRANDE ACONTECE EN LA VIDA
DE LOS MORTALES SIN UNA MALDICIÓN".

4
00:00:24,858 --> 00:00:27,861
SÓFOCLES

5
00:00:31,156 --> 00:00:34,659
Adelante. Sí, siéntate, ponte cómodo.

6
00:00:37,495 --> 00:00:38,580
¿Estás bien? Vale.

7
00:00:38,663 --> 00:00:39,497
Sí.

8
00:00:43,043 --> 00:00:44,419
Toma uno, marca.

9
00:00:46,880 --> 00:00:48,923
¿Quieres empezar presentándote?

10
00:00:50,467 --> 00:00:53,344
Hola, gente. Bailey. Toma tres.

11
00:00:53,970 --> 00:00:56,222
- ¿Estás bien?
- Esta es la peor parte.

12
00:00:57,515 --> 00:00:58,516
No me gusta esto.

13
00:00:59,851 --> 00:01:02,228
Trabajé en Facebook en 2011 y 2012.

14
00:01:02,312 --> 00:01:05,190
Fui una de las primeras empleadas
de Instagram.

15
00:01:05,273 --> 00:01:08,693
Trabajé en Google y YouTube.

16
00:01:08,777 --> 00:01:11,696
Apple, Google, Twitter, Palm.

17
00:01:12,739 --> 00:01:15,533
Ayudé a iniciar Mozilla Labs
y pasé a Firefox.

18
00:01:15,617 --> 00:01:17,994
¿Estamos rodando? Todos...

19
00:01:18,078 --> 00:01:18,953
Genial.

20
00:01:21,206 --> 00:01:26,169
Trabajé en Twitter. Mi último trabajo fue
el de vicepresidente de ingeniería.

21
00:01:27,420 --> 00:01:29,255
Era el presidente de Pinterest.

22
00:01:29,339 --> 00:01:34,260
Antes de eso, fui director de monetización
en Facebook durante cinco años.

23
00:01:34,344 --> 00:01:37,806
Dirigí la plataforma de desarrollo
de Twitter

24
00:01:37,889 --> 00:01:40,225
y llegué a jefe de producto de consumo.

25
00:01:40,308 --> 00:01:44,270
Fui el coinventor de Google Drive,
el chat de Gmail,

26
00:01:44,354 --> 00:01:47,357
las páginas de Facebook
y el botón "Me gusta".

27
00:01:47,440 --> 00:01:50,777
Sí. Por eso pasé ocho meses

28
00:01:50,860 --> 00:01:52,779
hablando con abogados.

29
00:01:54,030 --> 00:01:55,406
Esto me asusta.

30
00:01:58,409 --> 00:02:02,914
Cuando estaba allí, siempre sentía
que era una fuerza positiva.

31
00:02:03,373 --> 00:02:05,375
No sé si ahora me siento así.

32
00:02:05,458 --> 00:02:10,588
Dejé Google en junio de 2017
por motivos éticos.

33
00:02:10,672 --> 00:02:14,134
Y no solo en Google,
sino en toda la industria.

34
00:02:14,217 --> 00:02:15,468
Estoy muy preocupado.

35
00:02:16,719 --> 00:02:17,679
Mucho.

36
00:02:19,097 --> 00:02:21,808
Hoy es fácil perder de vista

37
00:02:21,891 --> 00:02:27,814
que estas herramientas han creado
cosas maravillosas en el mundo.

38
00:02:27,897 --> 00:02:31,943
Han reunido a familiares,
han encontrado donantes de órganos...

39
00:02:32,026 --> 00:02:35,613
Hubo cambios sistémicos importantes
y positivos

40
00:02:35,697 --> 00:02:37,866
en todo el mundo

41
00:02:37,949 --> 00:02:40,201
debido a estas plataformas.

42
00:02:40,827 --> 00:02:44,539
Fuimos ingenuos
con la otra cara de la moneda.

43
00:02:45,540 --> 00:02:48,585
Sí, sueltas estas cosas
y cobran vida propia.

44
00:02:48,668 --> 00:02:52,005
Y el uso que se les da
es muy diferente del esperado.

45
00:02:52,088 --> 00:02:56,509
Creo que nadie buscaba
ninguna de estas consecuencias.

46
00:02:56,593 --> 00:02:59,554
No hay ningún malo. No. Claro que no.

47
00:03:01,639 --> 00:03:03,600
Entonces, ¿cuál es el problema?

48
00:03:08,771 --> 00:03:11,357
¿Hay algún problema y cuál sería?

49
00:03:18,406 --> 00:03:22,118
Sí, es difícil dar un solo...
Hay muchos problemas que comentar.

50
00:03:22,202 --> 00:03:23,578
¿Cuál es el problema?

51
00:03:28,208 --> 00:03:32,253
UN DOCUMENTAL ORIGINAL DE NETFLIX

52
00:03:33,588 --> 00:03:37,634
<i>A pesar de las críticas,</i>
<i>las grandes empresas tecnológicas crecen.</i>

53
00:03:37,717 --> 00:03:40,929
La industria tecnológica está
bajo un nuevo escrutinio.

54
00:03:41,012 --> 00:03:43,556
Un nuevo estudio arroja luz
sobre el vínculo

55
00:03:43,640 --> 00:03:46,142
entre la salud mental
y las redes sociales.

56
00:03:46,226 --> 00:03:48,770
<i>Vengo a hablar</i>
<i>de la última investigación...</i>

57
00:03:49,187 --> 00:03:51,397
<i>...que no tiene cobertura.</i>

58
00:03:51,481 --> 00:03:54,108
<i>Hay millones de estadounidenses adictos</i>

59
00:03:54,192 --> 00:03:56,319
<i>a sus dispositivos electrónicos.</i>

60
00:03:56,402 --> 00:03:59,364
<i>Se agrava por el hecho</i>
<i>de que uno puede aislarse...</i>

61
00:03:59,447 --> 00:04:00,698
TE HAN ETIQUETADO EN UNA FOTO

62
00:04:00,782 --> 00:04:02,742
...gracias a nuestra tecnología.

63
00:04:02,825 --> 00:04:06,788
Los bulos son más avanzados
y amenazan a las sociedades mundiales.

64
00:04:06,871 --> 00:04:10,291
No esperábamos esto
al crear Twitter hace más de 12 años.

65
00:04:10,375 --> 00:04:12,502
Según las autoridades,
no hay motivos para creer

66
00:04:12,585 --> 00:04:14,754
que cesarán los ciberataques rusos.

67
00:04:14,837 --> 00:04:18,132
YouTube se ve obligado a hacer limpieza.

68
00:04:18,216 --> 00:04:21,552
<i>TikTok, si hablas con algún adolescente,</i>

69
00:04:21,636 --> 00:04:24,013
<i>verás que es imposible que lo borren...</i>

70
00:04:24,097 --> 00:04:26,266
Isla, ¿puedes preparar la mesa?

71
00:04:26,349 --> 00:04:30,061
<i>Hay dudas sobre si las redes sociales</i>
<i>deprimen a nuestros hijos.</i>

72
00:04:30,144 --> 00:04:32,021
Isla, ¿puedes poner la mesa?

73
00:04:32,105 --> 00:04:35,316
<i>Es cada vez más popular</i>
<i>entre los adolescentes</i>

74
00:04:35,400 --> 00:04:37,860
y se ha acuñado un nuevo síndrome:

75
00:04:37,944 --> 00:04:40,905
dismorfia de Snapchat,
jóvenes que quieren operarse

76
00:04:40,989 --> 00:04:43,741
para parecer <i>selfies</i> con filtros.

77
00:04:43,825 --> 00:04:45,910
No entiendo por qué le dejas eso.

78
00:04:45,994 --> 00:04:47,537
¿Qué iba a hacer?

79
00:04:47,620 --> 00:04:49,580
Todos los de su clase tenían uno.

80
00:04:50,039 --> 00:04:51,165
Solo tiene 11 años.

81
00:04:51,249 --> 00:04:52,959
Nadie te obliga a tener uno.

82
00:04:53,042 --> 00:04:55,086
Desconecta si quieres.

83
00:04:55,169 --> 00:04:59,340
Oye, estoy conectada sin móvil, ¿vale?
Ahora estoy en Internet.

84
00:04:59,424 --> 00:05:03,094
Y eso no es una conexión real.
Es solo un montón de mier...

85
00:05:03,177 --> 00:05:06,514
El capitalismo de vigilancia ha moldeado
nuestra política y cultura

86
00:05:06,597 --> 00:05:08,308
de formas imperceptibles.

87
00:05:08,391 --> 00:05:12,812
<i>El EI ha inspirado a sus seguidores</i>
<i>y los supremacistas blancos los imitan.</i>

88
00:05:12,895 --> 00:05:14,147
En la India,

89
00:05:14,230 --> 00:05:17,442
las turbas han matado
a una docena de personas...

90
00:05:17,525 --> 00:05:20,361
<i>No son solo bulos, tienen consecuencias.</i>

91
00:05:20,445 --> 00:05:24,073
<i>¿Cómo se maneja una epidemia</i>
<i>en la era de los bulos?</i>

92
00:05:24,157 --> 00:05:26,993
¿Puedes contraer el coronavirus
con comida china?

93
00:05:27,535 --> 00:05:32,540
Hemos pasado de la era de la información
a la de la desinformación.

94
00:05:32,623 --> 00:05:34,667
Atacan a la democracia.

95
00:05:34,751 --> 00:05:39,005
Lo que dije fue: "Las herramientas
que se han creado empiezan

96
00:05:39,088 --> 00:05:41,799
a corroer
el tejido social de la sociedad".

97
00:06:00,151 --> 00:06:03,446
Asa da un discurso de bienvenida
y ponemos el video.

98
00:06:04,197 --> 00:06:07,325
Y luego:
"Damas y caballeros, Tristan Harris".

99
00:06:07,408 --> 00:06:08,826
- Vale.
- Genial.

100
00:06:08,951 --> 00:06:12,038
Así que subo y...

101
00:06:12,121 --> 00:06:13,790
UNA NUEVA AGENDA TECNOLÓGICA

102
00:06:13,873 --> 00:06:16,042
Digo: "Gracias por venir".

103
00:06:17,919 --> 00:06:22,048
Hoy quiero hablar
de una nueva agenda tecnológica,

104
00:06:22,131 --> 00:06:25,468
y el motivo es
que si le preguntamos a la gente:

105
00:06:25,551 --> 00:06:28,096
"¿Qué ocurre
con la industria tecnológica?",

106
00:06:28,346 --> 00:06:33,893
hay una cacofonía de quejas y escándalos,
de "nos robaron los datos", hay adicción

107
00:06:33,976 --> 00:06:35,978
bulos, polarización

108
00:06:36,062 --> 00:06:37,688
y elecciones pirateadas.

109
00:06:38,189 --> 00:06:41,609
Pero ¿hay algo
que subyace a estos problemas

110
00:06:41,692 --> 00:06:44,654
y que haga que todo esto ocurra a la vez?

111
00:06:46,447 --> 00:06:48,408
- ¿Te parece bien?
- Muy bien. Sí.

112
00:06:50,827 --> 00:06:52,954
Intento.... Quiero que vean...

113
00:06:53,037 --> 00:06:55,206
Hay un problema
en la industria tecnológica.

114
00:06:55,289 --> 00:07:00,211
No tiene nombre
y tiene que ver con una fuente, una...

115
00:07:05,091 --> 00:07:09,387
Cuando miras tu alrededor,
parece que el mundo se vuelve loco.

116
00:07:12,765 --> 00:07:15,143
Tienes que preguntarte si es normal

117
00:07:16,102 --> 00:07:18,771
o si hemos caído bajo algún hechizo.

118
00:07:22,316 --> 00:07:25,111
EX DISEÑADOR ÉTICO DE GOOGLE

119
00:07:25,194 --> 00:07:27,905
COFUNDADOR DEL CENTRO
PARA LA TECNOLOGÍA HUMANA

120
00:07:27,989 --> 00:07:30,450
Ojalá más gente entienda cómo funciona,

121
00:07:30,533 --> 00:07:34,078
porque no debería limitarse
a la industria tecnológica.

122
00:07:34,162 --> 00:07:36,289
Debería saberlo todo el mundo.

123
00:07:47,383 --> 00:07:48,301
- ¡Hola!
- Hola.

124
00:07:48,509 --> 00:07:50,595
- Tristan. Encantado.
- ¿Es Tristan?

125
00:07:50,678 --> 00:07:51,721
- Sí.
- Genial.

126
00:07:53,181 --> 00:07:55,933
Él es un ex diseñador ético de Google

127
00:07:56,017 --> 00:07:59,353
y lo más parecido
a la consciencia de Silicon Valley.

128
00:07:59,437 --> 00:08:00,771
Le pide a la industria

129
00:08:00,855 --> 00:08:04,192
que añada lo que él llama "diseño ético"
a sus productos.

130
00:08:04,275 --> 00:08:06,903
<i>Es raro que un experto sea tan directo,</i>

131
00:08:06,986 --> 00:08:10,114
<i>pero Tristan Harris cree</i>
<i>que alguien debe serlo.</i>

132
00:08:11,282 --> 00:08:12,700
Cuando estaba en Google,

133
00:08:12,783 --> 00:08:16,037
estaba en el equipo de Gmail
y empecé a hartarme,

134
00:08:16,120 --> 00:08:18,372
porque hablábamos mucho sobre...

135
00:08:19,332 --> 00:08:23,169
cómo debería ser la bandeja de entrada
y de qué color debería ser.

136
00:08:23,252 --> 00:08:25,880
Yo me sentía adicto al correo electrónico

137
00:08:26,297 --> 00:08:27,632
y era fascinante

138
00:08:27,715 --> 00:08:31,511
que nadie en Gmail trabajara
para hacerlo menos adictivo.

139
00:08:31,969 --> 00:08:36,390
Pensaba: "¿Alguien más piensa en esto?
No he oído a nadie hablar de ello".

140
00:08:36,849 --> 00:08:41,229
Y me sentía frustrado
con la industria tecnológica,

141
00:08:41,312 --> 00:08:43,147
que habíamos perdido el rumbo.

142
00:08:46,817 --> 00:08:49,820
Me costó mucho averiguar

143
00:08:49,904 --> 00:08:52,573
cómo cambiarlo desde el interior.

144
00:08:55,201 --> 00:08:59,497
Y decidí hacer una presentación,
una especie de llamada a las armas.

145
00:09:00,998 --> 00:09:04,961
Todos los días iba a casa
y trabajaba un par de horas.

146
00:09:06,170 --> 00:09:11,884
Básicamente, decía que nunca antes
en la historia, 50 diseñadores,

147
00:09:12,426 --> 00:09:15,263
blancos de 20 a 35 años, en California,

148
00:09:15,888 --> 00:09:19,725
tomaban decisiones que afectarían
a 2000 millones de personas.

149
00:09:21,018 --> 00:09:24,313
A 2000 millones de personas
se les inculcarán ideas

150
00:09:24,397 --> 00:09:28,401
porque un diseñador de Google dijo:
"Así funcionan las notificaciones

151
00:09:28,484 --> 00:09:30,778
en la pantalla que ves cada mañana".

152
00:09:30,861 --> 00:09:35,283
Y en Google tenemos la responsabilidad
moral de resolver este problema.

153
00:09:36,075 --> 00:09:37,743
Y envié esta presentación

154
00:09:37,827 --> 00:09:41,789
a unos 15 o 20 de mis colegas más cercanos
en Google.

155
00:09:41,872 --> 00:09:44,959
Estaba muy nervioso.
No sabía cómo iba a sentar.

156
00:09:46,460 --> 00:09:50,464
Al día siguiente,
la mayoría tenía la presentación abierta.

157
00:09:50,548 --> 00:09:52,049
ATENCIÓN

158
00:09:52,133 --> 00:09:54,552
Ese día, había 400 espectadores

159
00:09:54,635 --> 00:09:58,014
y seguían aumentando.
Recibí correos de toda la empresa.

160
00:09:58,097 --> 00:10:00,266
En cada departamento me decían:

161
00:10:00,349 --> 00:10:02,852
"Tienes razón, veo cómo afecta a mis hijos

162
00:10:02,935 --> 00:10:06,856
y a la gente de mi alrededor.
Tenemos que hacer algo al respecto".

163
00:10:07,481 --> 00:10:10,818
Parecía que iba a iniciar
una revolución o algo así.

164
00:10:11,861 --> 00:10:15,197
Más tarde, supe que Larry Page
oyó de la presentación

165
00:10:15,281 --> 00:10:17,116
en tres reuniones ese día.

166
00:10:17,950 --> 00:10:20,369
Y creó un momento cultural

167
00:10:20,870 --> 00:10:23,205
que Google debía tomar en serio.

168
00:10:26,000 --> 00:10:28,794
Y luego... nada.

169
00:10:34,300 --> 00:10:36,135
Todos en 2006,

170
00:10:37,219 --> 00:10:39,221
incluidos nosotros en Facebook,

171
00:10:39,305 --> 00:10:43,392
admirábamos a Google
y lo que había construido,

172
00:10:43,476 --> 00:10:47,396
un servicio realmente útil

173
00:10:47,480 --> 00:10:51,442
que, por lo que sabíamos,
realizaba una gran labor por el mundo

174
00:10:51,525 --> 00:10:54,695
y crearon una máquina de hacer dinero.

175
00:10:55,404 --> 00:11:00,034
Sentíamos mucha envidia
y nos parecía muy elegante...

176
00:11:00,826 --> 00:11:02,161
y perfecto.

177
00:11:02,953 --> 00:11:04,914
Facebook llevaba unos dos años

178
00:11:05,873 --> 00:11:08,292
y me contrataron para que averiguara

179
00:11:08,376 --> 00:11:10,586
el modelo de negocio para la empresa.

180
00:11:10,670 --> 00:11:13,506
Era el director de monetización.
La cuestión era:

181
00:11:13,589 --> 00:11:17,051
"Eres la persona que va a averiguar
cómo se monetiza".

182
00:11:17,134 --> 00:11:19,804
Y había mucha gente trabajando mucho,

183
00:11:19,887 --> 00:11:25,476
pero yo era una de las personas
que decía...

184
00:11:26,769 --> 00:11:28,479
que había que hacer dinero...

185
00:11:29,313 --> 00:11:33,651
y este modelo publicitario es
la forma más elegante.

186
00:11:43,077 --> 00:11:44,453
¿Y este vídeo de mamá?

187
00:11:44,537 --> 00:11:47,873
Son entrevistas, pero mola.
El tío es un genio.

188
00:11:47,957 --> 00:11:50,584
Habla de eliminar las redes sociales,
cosa que debes hacer.

189
00:11:50,668 --> 00:11:52,878
Tengo que bloquear sus correos.

190
00:11:52,962 --> 00:11:56,090
No sé de que habla. Ella es aún peor.

191
00:11:56,173 --> 00:11:58,592
- No, solo lo usa para recetas.
- Y para trabajar.

192
00:11:58,676 --> 00:12:00,511
- Y para entrenar.
- Y para vigilarnos.

193
00:12:00,594 --> 00:12:03,013
Y a todos los que ha conocido en su vida.

194
00:12:04,932 --> 00:12:07,893
<i>Si navegas por las redes sociales</i>

195
00:12:07,977 --> 00:12:11,731
<i>mientras nos miras,</i>
<i>deja el maldito teléfono y escucha,</i>

196
00:12:11,814 --> 00:12:14,817
porque el próximo invitado
ha escrito un libro

197
00:12:14,900 --> 00:12:18,112
sobre cómo está destrozando
nuestras vidas.

198
00:12:18,195 --> 00:12:19,447
Recibamos al autor

199
00:12:19,530 --> 00:12:24,452
de <i>Diez razones para borrar</i>
<i>tus redes sociales de inmediato,</i>

200
00:12:24,535 --> 00:12:25,786
Jaron Lanier.

201
00:12:27,997 --> 00:12:31,834
Empresas como Google y Facebook son
de las más ricas

202
00:12:31,917 --> 00:12:33,836
y exitosas de todos los tiempos.

203
00:12:34,295 --> 00:12:36,839
Tienen relativamente pocos empleados.

204
00:12:36,922 --> 00:12:40,468
Tienen un ordenador gigante
que gana dinero.

205
00:12:41,510 --> 00:12:45,222
¿Por qué les pagan?
Es una pregunta muy importante.

206
00:12:47,308 --> 00:12:49,977
He invertido en tecnología
durante 35 años.

207
00:12:50,728 --> 00:12:54,356
En los primeros 50 años de Silicon Valley,
hicieron productos,

208
00:12:54,440 --> 00:12:58,402
hardware, software, que vendían
a clientes, negocios sencillos.

209
00:12:58,486 --> 00:13:01,447
Los últimos diez años,
las empresas más grandes

210
00:13:01,530 --> 00:13:03,866
se han dedicado a vender sus usuarios.

211
00:13:03,949 --> 00:13:05,910
Es un poco trivial decirlo ahora,

212
00:13:05,993 --> 00:13:09,205
pero como no pagamos
por los productos que usamos,

213
00:13:09,288 --> 00:13:12,166
los anunciantes pagan por esos productos.

214
00:13:12,249 --> 00:13:14,210
Los anunciantes son los clientes.

215
00:13:14,460 --> 00:13:16,086
Nosotros somos el producto.

216
00:13:16,170 --> 00:13:17,630
El dicho clásico es:

217
00:13:17,713 --> 00:13:21,592
"Si no pagas por el producto,
eres el producto".

218
00:13:21,675 --> 00:13:23,302
TÚ ERES EL PRODUCTO

219
00:13:23,385 --> 00:13:27,223
Muchos piensan:
"Google es solo un cuadro de búsqueda

220
00:13:27,306 --> 00:13:31,101
y Facebook es para ver
lo que hacen mis amigos y sus fotos".

221
00:13:31,185 --> 00:13:35,481
Pero no se dan cuenta
de que compiten por su atención.

222
00:13:36,524 --> 00:13:41,111
En Facebook, Snapchat,
Twitter, Instagram, YouTube...,

223
00:13:41,195 --> 00:13:45,282
su modelo de negocio es mantener
a la gente enganchada a la pantalla.

224
00:13:46,283 --> 00:13:49,578
Veamos cómo captar
la atención de esta persona

225
00:13:49,662 --> 00:13:50,955
todo lo posible.

226
00:13:51,455 --> 00:13:53,374
¿Cuánto tiempo podemos captarte?

227
00:13:53,874 --> 00:13:56,710
¿Cuánto de tu vida
podemos conseguir que nos des?

228
00:13:58,587 --> 00:14:01,090
Al pensar
en cómo funcionan estas empresas,

229
00:14:01,173 --> 00:14:02,424
tiene sentido.

230
00:14:02,967 --> 00:14:06,095
Tenemos servicios en Internet
que consideramos gratis.

231
00:14:06,178 --> 00:14:09,473
Pero no lo son. Los pagan los anunciantes.

232
00:14:09,557 --> 00:14:11,559
¿Por qué pagan a esas empresas?

233
00:14:11,642 --> 00:14:14,687
Pagan a cambio de mostrarnos sus anuncios.

234
00:14:14,770 --> 00:14:18,357
Somos el producto.
Se vende nuestra atención.

235
00:14:18,816 --> 00:14:20,442
Eso es demasiado simplista.

236
00:14:20,526 --> 00:14:23,821
El producto es el cambio progresivo,
leve e imperceptible

237
00:14:23,904 --> 00:14:26,282
de tu comportamiento y percepción.

238
00:14:26,365 --> 00:14:27,575
CAMBIAR EL COMPORTAMIENTO
Y LA PERCEPCIÓN

239
00:14:27,658 --> 00:14:30,244
Ese es el producto. El único posible.

240
00:14:30,327 --> 00:14:34,081
No hay nada más
que pueda llamarse producto.

241
00:14:34,164 --> 00:14:37,251
Es lo único
con lo que pueden ganar dinero.

242
00:14:37,668 --> 00:14:39,253
Cambiando lo que haces,

243
00:14:39,336 --> 00:14:41,714
cómo piensas, quién eres.

244
00:14:42,631 --> 00:14:45,301
Es un cambio paulatino. Es leve.

245
00:14:45,384 --> 00:14:48,971
Si vas a alguien y le dices:
"Dame diez millones de dólares

246
00:14:49,054 --> 00:14:54,310
y cambiaré el mundo un uno por ciento
en la dirección que quieras...".

247
00:14:54,894 --> 00:14:58,188
¡Es el mundo!
Eso es increíble y vale mucho dinero.

248
00:14:59,315 --> 00:15:00,149
Vale.

249
00:15:00,691 --> 00:15:04,570
Esto es
lo que todos los negocios han soñado,

250
00:15:04,653 --> 00:15:10,910
tener una garantía
de que si pone un anuncio, tendrá éxito.

251
00:15:11,327 --> 00:15:13,996
Ese es su negocio. Venden certeza.

252
00:15:14,079 --> 00:15:14,914
CERTEZA

253
00:15:14,997 --> 00:15:19,710
Para tener éxito en ese negocio,
hay que tener buenas predicciones.

254
00:15:20,044 --> 00:15:24,173
Las buenas predicciones empiezan
con un imperativo.

255
00:15:25,215 --> 00:15:26,926
Se necesitan muchos datos.

256
00:15:27,009 --> 00:15:29,011
DATOS

257
00:15:29,136 --> 00:15:31,555
Lo llaman "capitalismo de vigilancia".

258
00:15:31,639 --> 00:15:34,350
El capitalismo se beneficia
del seguimiento

259
00:15:34,433 --> 00:15:38,062
de grandes empresas tecnológicas

260
00:15:38,145 --> 00:15:40,356
cuyo modelo de negocio es asegurar

261
00:15:40,439 --> 00:15:42,858
que los anunciantes tengan éxito.

262
00:15:42,942 --> 00:15:45,569
Es un nuevo tipo de mercado.

263
00:15:45,653 --> 00:15:48,072
Uno que antes no existía.

264
00:15:48,822 --> 00:15:55,371
Y es un mercado
que se dedica a los futuros humanos.

265
00:15:56,080 --> 00:16:01,585
Igual que hay mercados que negocian
con cerdo o petróleo.

266
00:16:02,127 --> 00:16:07,591
Ahora tenemos mercados que negocian
con futuros humanos a gran escala,

267
00:16:08,175 --> 00:16:13,472
y esos mercados han producido
miles de millones de dólares

268
00:16:14,014 --> 00:16:19,269
que han convertido a las empresas
de Internet en las más ricas

269
00:16:19,353 --> 00:16:22,356
en la historia de la humanidad.

270
00:16:27,444 --> 00:16:31,073
Quiero que la gente sepa
que todo lo que hacen en Internet

271
00:16:31,156 --> 00:16:34,326
se ve, se rastrea, se mide.

272
00:16:35,035 --> 00:16:39,623
Cada acción que uno realiza
es vigilada y registrada.

273
00:16:39,707 --> 00:16:43,836
Exactamente qué imagen miras,
cuánto tiempo la miras.

274
00:16:43,919 --> 00:16:45,796
Sí, cuánto tiempo la miras.

275
00:16:45,879 --> 00:16:47,548
TIEMPO DE INTERACCIÓN

276
00:16:47,631 --> 00:16:49,341
TIEMPO DE INTERACCIÓN

277
00:16:49,425 --> 00:16:50,426
TIEMPO DE INTERACCIÓN

278
00:16:50,509 --> 00:16:53,804
<i>Saben cuándo la gente está sola</i>
<i>y cuándo está deprimida.</i>

279
00:16:53,887 --> 00:16:57,099
<i>Saben cuándo miran fotos de sus exparejas.</i>

280
00:16:57,182 --> 00:17:00,853
<i>Saben lo que haces por la noche,</i>
<i>lo saben todo.</i>

281
00:17:00,936 --> 00:17:03,230
<i>Si eres introvertido o extrovertido</i>

282
00:17:03,313 --> 00:17:06,817
<i>o qué tipo de neurosis tienes,</i>
<i>cómo es tu personalidad.</i>

283
00:17:08,193 --> 00:17:11,613
<i>Tienen más información sobre nosotros</i>

284
00:17:11,697 --> 00:17:14,324
<i>de lo imaginado en la historia humana.</i>

285
00:17:14,950 --> 00:17:16,368
<i>No existen precedentes.</i>

286
00:17:18,579 --> 00:17:22,791
Y todos estos datos
que estamos vertiendo todo el tiempo

287
00:17:22,875 --> 00:17:26,795
se suministran a los sistemas
que casi no tienen supervisión humana

288
00:17:27,463 --> 00:17:30,883
y que hacen predicciones cada vez mejores

289
00:17:30,966 --> 00:17:33,552
sobre lo que haremos y quiénes somos.

290
00:17:34,887 --> 00:17:36,346
RECOMENDADO PARA TI

291
00:17:36,430 --> 00:17:39,558
Muchos creen que nuestros datos se venden.

292
00:17:40,350 --> 00:17:43,187
A Facebook no le interesa
dar los datos gratis.

293
00:17:45,522 --> 00:17:47,107
¿Qué hacen con esos datos?

294
00:17:51,070 --> 00:17:54,490
Construyen modelos
que predicen nuestras acciones.

295
00:17:54,573 --> 00:17:57,618
Y el que tenga el mejor modelo gana.

296
00:18:02,706 --> 00:18:04,041
Cada vez va más lento.

297
00:18:04,124 --> 00:18:07,002
Es el final de la duración media,
menos anuncios.

298
00:18:07,086 --> 00:18:08,337
Menos amigos y familia.

299
00:18:09,463 --> 00:18:11,340
En el otro lado de la pantalla,

300
00:18:11,423 --> 00:18:15,469
es como si tuvieran
un muñeco vudú de nosotros.

301
00:18:16,762 --> 00:18:18,180
Todo lo que hemos hecho,

302
00:18:18,263 --> 00:18:21,642
los clics,
los vídeos que vemos, los "Me gusta",

303
00:18:21,725 --> 00:18:25,354
todo eso crea
un modelo cada vez más preciso.

304
00:18:25,896 --> 00:18:27,481
Cuando tienes el modelo,

305
00:18:27,564 --> 00:18:29,858
puedes predecir qué hace esa persona.

306
00:18:29,942 --> 00:18:31,777
Vale, déjame probar.

307
00:18:32,569 --> 00:18:36,115
Puedo predecir
qué vídeos captarán tu atención.

308
00:18:36,198 --> 00:18:39,159
Puedo predecir qué emociones
te hacen responder.

309
00:18:39,243 --> 00:18:40,410
Sí, perfecto.

310
00:18:41,578 --> 00:18:43,330
El fallo más épico del año.

311
00:18:43,747 --> 00:18:44,665
¡FALLO ÉPICO!

312
00:18:48,627 --> 00:18:51,088
- Perfecto, ha funcionado.
- Otro vídeo.

313
00:18:51,171 --> 00:18:54,049
Genial. Metamos un anuncio
antes de que empiece.

314
00:18:55,968 --> 00:18:59,721
En muchas empresas de tecnología
hay tres objetivos principales.

315
00:18:59,805 --> 00:19:03,517
El aumentar el uso, que sigas navegando.

316
00:19:04,601 --> 00:19:06,145
El crecimiento,

317
00:19:06,228 --> 00:19:08,647
que vuelvas e invites a muchos amigos

318
00:19:08,730 --> 00:19:10,732
y ellos inviten a más amigos.

319
00:19:11,650 --> 00:19:14,987
Y el de la publicidad es
que como todo eso ya ocurre,

320
00:19:15,070 --> 00:19:17,406
ganemos todo el dinero posible.

321
00:19:19,283 --> 00:19:21,994
Estos objetivos
están impulsados por algoritmos

322
00:19:22,077 --> 00:19:24,454
cuyo trabajo es averiguar qué mostrarte

323
00:19:24,538 --> 00:19:26,165
para aumentar esos números.

324
00:19:26,623 --> 00:19:29,918
A menudo,
hablamos en Facebook de la idea

325
00:19:30,002 --> 00:19:34,006
de poder manipularlo según sea necesario.

326
00:19:34,673 --> 00:19:38,594
Y hablamos de que Mark controla eso.

327
00:19:41,305 --> 00:19:44,474
"Oye, hoy quiero más usuarios en Corea".

328
00:19:45,684 --> 00:19:46,602
Dale al botón.

329
00:19:47,436 --> 00:19:49,188
"Aumentemos los anuncios".

330
00:19:49,980 --> 00:19:51,732
"Aumentemos la monetización".

331
00:19:52,858 --> 00:19:55,444
Y así...

332
00:19:55,527 --> 00:19:59,239
En todas estas empresas existe
ese nivel de precisión.

333
00:19:59,990 --> 00:20:02,409
- ¿Cómo...?
- No sé cómo me he librado.

334
00:20:02,492 --> 00:20:05,704
- El árbitro es una mierda.
- Has llegado hasta...

335
00:20:05,787 --> 00:20:07,956
- Es Rebecca. Habla con ella.
- Ya.

336
00:20:08,040 --> 00:20:10,834
- Habla con ella.
- Estoy en ello.

337
00:20:10,918 --> 00:20:14,338
Según su agenda está de descanso.
Deberíamos estar activos.

338
00:20:15,255 --> 00:20:16,465
¿Lo animo?

339
00:20:17,132 --> 00:20:18,050
Sí.

340
00:20:21,595 --> 00:20:24,181
"Tu amigo Tyler acaba de unirse.
Salúdale".

341
00:20:26,016 --> 00:20:27,184
Venga, tío.

342
00:20:27,267 --> 00:20:28,769
Salúdale.

343
00:20:29,394 --> 00:20:31,647
¿Ni siquiera vas...? Habla con ella.

344
00:20:31,730 --> 00:20:34,900
¡TU AMIGO TYLER ACABA DE UNIRSE!
¡SALÚDALE!

345
00:20:36,902 --> 00:20:37,986
CONEXIONES DE RED

346
00:20:38,070 --> 00:20:40,447
¡Nuevo enlace! Vale, vamos.

347
00:20:40,948 --> 00:20:46,078
Sigue con una entrada
del usuario 079044238820, Rebecca.

348
00:20:46,161 --> 00:20:49,790
Buena idea. Las coordenadas indican
que están muy cerca.

349
00:20:52,167 --> 00:20:55,837
¡HE ENCONTRADO A MI ALMA GEMELA!
#MEJORES AMIGOS #CHUPETÓN

350
00:20:55,921 --> 00:20:57,547
Está listo para un anuncio.

351
00:20:57,631 --> 00:20:58,632
A subastar.

352
00:20:58,715 --> 00:21:00,050
ANTICIPO DE ANUNCIO
CERA CAPILAR

353
00:21:00,133 --> 00:21:02,803
¡Vendido a Deep Fade!

354
00:21:03,387 --> 00:21:07,933
Teníamos 468 postores. Vendimos a Ben
a 3,262 centavos por impresión.

355
00:21:17,109 --> 00:21:21,530
Hemos creado un mundo en el que
la conexión en línea es primordial,

356
00:21:21,822 --> 00:21:23,907
especialmente para los más jóvenes,

357
00:21:23,991 --> 00:21:28,328
y, sin embargo, en ese mundo,
cada vez que dos personas se conectan,

358
00:21:29,162 --> 00:21:33,250
la única forma de financiarlo
es a través de una tercera persona

359
00:21:33,333 --> 00:21:35,627
que paga por manipularlas.

360
00:21:36,128 --> 00:21:39,381
Hemos creado
una generación global de personas

361
00:21:39,464 --> 00:21:44,011
que crecen en un contexto
donde el significado de la comunicación,

362
00:21:44,094 --> 00:21:47,431
el significado de la cultura es
la manipulación.

363
00:21:47,514 --> 00:21:49,725
El engaño se ha convertido

364
00:21:49,808 --> 00:21:52,311
en el centro de todo lo que hacemos.

365
00:21:56,356 --> 00:22:01,445
"CUALQUIER TECNOLOGÍA SUFICIENTEMENTE
AVANZADA NO SE DISTINGUE DE LA MAGIA".

366
00:22:05,741 --> 00:22:07,242
- Coge el otro...
- Vale.

367
00:22:07,326 --> 00:22:09,369
- ¿Qué lo sujeta?
- Es genial.

368
00:22:09,453 --> 00:22:10,620
- ¿Esto?
- Sí.

369
00:22:10,704 --> 00:22:13,707
¿Cómo queda esto en la cámara
si hacemos...

370
00:22:13,790 --> 00:22:15,459
- Podemos...
- esto?

371
00:22:15,542 --> 00:22:16,835
- ¿Qué?
- Sí.

372
00:22:16,918 --> 00:22:18,462
- ¿Otra vez?
- Exacto, sí.

373
00:22:18,920 --> 00:22:20,589
Sí. No, probablemente no...

374
00:22:20,672 --> 00:22:21,965
Sí.

375
00:22:22,466 --> 00:22:23,884
Este es menos…

376
00:22:31,016 --> 00:22:33,268
Chris está flipando.

377
00:22:34,728 --> 00:22:35,562
¿Es bueno?

378
00:22:35,645 --> 00:22:37,773
¡MAGIA!

379
00:22:37,856 --> 00:22:41,068
Tenía cinco años
cuando aprendí a hacer magia.

380
00:22:41,151 --> 00:22:45,781
Y podía engañar a adultos con doctorados.

381
00:22:54,873 --> 00:22:57,709
Los magos eran casi
los primeros neurocientíficos

382
00:22:57,793 --> 00:22:58,960
y psicólogos.

383
00:22:59,044 --> 00:23:02,005
Fueron ellos los que entendieron
cómo funciona

384
00:23:02,089 --> 00:23:03,382
la mente de la gente.

385
00:23:04,216 --> 00:23:07,677
Hacen muchas pruebas,
en tiempo real, con la gente.

386
00:23:09,137 --> 00:23:11,139
Un mago entiende algo,

387
00:23:11,223 --> 00:23:15,936
una parte de tu mente que no conoces.
Eso hace que la ilusión funcione.

388
00:23:16,019 --> 00:23:20,607
Doctores, abogados, gente que sabe
construir aviones o misiles nucleares

389
00:23:20,690 --> 00:23:24,361
desconoce la vulnerabilidad de su mente.

390
00:23:24,444 --> 00:23:26,113
Es una disciplina aparte.

391
00:23:26,571 --> 00:23:28,990
Y se aplica a todos los seres humanos.

392
00:23:29,074 --> 00:23:30,909
UNIVERSIDAD DE STANFORD

393
00:23:30,992 --> 00:23:34,079
Desde esa perspectiva,
hay una comprensión distinta

394
00:23:34,162 --> 00:23:35,872
de lo que hace la tecnología.

395
00:23:36,873 --> 00:23:41,044
Lo aprendimos cuando estaba en
el laboratorio de tecnología persuasiva.

396
00:23:41,628 --> 00:23:43,463
¿Cómo usar todo lo que sabemos

397
00:23:43,547 --> 00:23:45,882
sobre lo que convence a la gente

398
00:23:45,966 --> 00:23:48,385
y convertirlo en tecnología?

399
00:23:48,468 --> 00:23:50,887
Muchos de vosotros ya sois genios.

400
00:23:50,971 --> 00:23:55,851
Sí, pero mi objetivo es convertiros
en genios del cambio conductual.

401
00:23:56,852 --> 00:24:01,148
Hay muchas figuras destacadas
de Silicon Valley que fueron a esa clase,

402
00:24:01,231 --> 00:24:05,485
figuras clave en Facebook,
Uber y otras empresas,

403
00:24:05,569 --> 00:24:09,197
y aprendieron
a hacer la tecnología más persuasiva,

404
00:24:09,614 --> 00:24:10,866
Tristan, por ejemplo.

405
00:24:12,284 --> 00:24:14,619
La tecnología persuasiva es un diseño

406
00:24:14,703 --> 00:24:16,580
intencionalmente extremo

407
00:24:16,663 --> 00:24:18,874
para modificar el comportamiento.

408
00:24:18,957 --> 00:24:20,542
Queremos que hagan algo,

409
00:24:20,625 --> 00:24:23,336
que sigan haciendo esto con el dedo.

410
00:24:23,420 --> 00:24:26,256
Si bajas y recargas,
habrá algo nuevo arriba.

411
00:24:26,339 --> 00:24:28,508
Bajas y recargas y cambia. Siempre.

412
00:24:28,592 --> 00:24:33,722
Lo que en psicología llamamos
"refuerzo positivo intermitente".

413
00:24:33,805 --> 00:24:37,142
No sabes cuándo lo conseguirás
o si vas a conseguir algo,

414
00:24:37,225 --> 00:24:40,061
es como las máquinas tragaperras
de Las Vegas.

415
00:24:40,145 --> 00:24:42,230
No basta
que uses el producto conscientemente,

416
00:24:42,314 --> 00:24:47,652
quiero profundizar en el cerebro
e implantarte un hábito inconsciente,

417
00:24:47,736 --> 00:24:50,864
para que estés programado
en un nivel más profundo.

418
00:24:50,947 --> 00:24:52,115
No te das cuenta.

419
00:24:52,199 --> 00:24:54,034
Un tal James Marshall...

420
00:24:54,117 --> 00:24:56,286
Esta ahí tirado

421
00:24:56,369 --> 00:25:01,333
y sabes que si lo usas
quizá tenga algo para ti,

422
00:25:01,416 --> 00:25:06,046
así que pruebas suerte. No es casualidad.
Es una técnica de diseño.

423
00:25:06,129 --> 00:25:11,134
Llevó una pepita de oro a un oficial
del ejército en San Francisco.

424
00:25:12,219 --> 00:25:15,388
La población de San Francisco solo era…

425
00:25:15,472 --> 00:25:17,432
Igual que el etiquetado de fotos.

426
00:25:19,726 --> 00:25:24,064
Si recibes un correo que dice
que te han etiquetado en una foto,

427
00:25:24,147 --> 00:25:28,568
claro que vas a hacer clic
y mirar la foto.

428
00:25:29,152 --> 00:25:31,821
No es algo que puedas ignorar.

429
00:25:32,364 --> 00:25:36,326
Recurren a una personalidad humana
muy arraigada.

430
00:25:36,409 --> 00:25:40,288
Deberías preguntarte
por qué el correo no contiene la foto.

431
00:25:40,372 --> 00:25:42,457
Sería mucho más fácil verla.

432
00:25:42,541 --> 00:25:45,919
Cuando Facebook encontró esa función,
la maximizaron

433
00:25:46,002 --> 00:25:48,505
porque dijeron:
"Aumentaremos la actividad.

434
00:25:48,588 --> 00:25:51,091
Hagamos
que la gente se etiquete en fotos".

435
00:25:56,263 --> 00:25:58,890
AL MENOS UNO SALE BIEN

436
00:25:59,349 --> 00:26:00,475
Ha comentado.

437
00:26:00,559 --> 00:26:01,434
Bien.

438
00:26:01,851 --> 00:26:04,688
Vale, Rebecca lo ha recibido
y está respondiendo.

439
00:26:04,771 --> 00:26:07,566
Que sepa que está escribiendo
para no perderlo.

440
00:26:07,649 --> 00:26:09,150
Activando puntos suspensivos.

441
00:26:09,234 --> 00:26:13,613
AL MENOS UNO SALE BIEN
...

442
00:26:19,411 --> 00:26:20,745
Genial, ha publicado.

443
00:26:21,329 --> 00:26:24,249
Está comentando su comentario
sobre su comentario.

444
00:26:25,041 --> 00:26:26,585
Ha dejado de escribir.

445
00:26:26,751 --> 00:26:27,752
Texto predictivo.

446
00:26:28,420 --> 00:26:30,005
Emoticonos. Le encantan.

447
00:26:31,381 --> 00:26:33,758
AUTOCOMPLETAR
INTERACCIÓN

448
00:26:33,842 --> 00:26:34,676
Usó fuego.

449
00:26:35,427 --> 00:26:36,803
Yo esperaba berenjenas.

450
00:26:38,597 --> 00:26:42,726
Hay toda una disciplina
y un campo llamado "growth hacking".

451
00:26:42,809 --> 00:26:47,147
Equipos de ingenieros cuyo trabajo es
piratear la psicología de la gente

452
00:26:47,230 --> 00:26:48,565
para captar más.

453
00:26:48,648 --> 00:26:52,861
Consiguen más usuarios, más interacciones
y que invites a más gente.

454
00:26:52,944 --> 00:26:55,739
Después de pruebas, repeticiones y demás,

455
00:26:55,822 --> 00:26:59,826
¿sabéis lo más importante?
Que uno añade a siete amigos en diez días.

456
00:26:59,909 --> 00:27:01,828
EX VICEPRESIDENTE DE CRECIMIENTO

457
00:27:01,911 --> 00:27:02,746
Así de simple.

458
00:27:02,829 --> 00:27:05,498
Chamath era
el jefe de crecimiento de Facebook

459
00:27:05,582 --> 00:27:08,251
y es muy conocido en la industria

460
00:27:08,335 --> 00:27:11,004
por ser pionero en tácticas de crecimiento

461
00:27:11,087 --> 00:27:14,758
que hicieron crecer Facebook
a una velocidad increíble.

462
00:27:14,841 --> 00:27:18,511
Y esas tácticas son
el estándar de Silicon Valley.

463
00:27:18,595 --> 00:27:21,222
Se usaron en Uber
y en muchas otras empresas.

464
00:27:21,306 --> 00:27:27,020
Fue pionero
en el uso de pruebas científicas A/B

465
00:27:27,103 --> 00:27:28,480
en cambios de características.

466
00:27:29,022 --> 00:27:30,940
Empresas como Google y Facebook

467
00:27:31,024 --> 00:27:34,569
introdujeron muchos pequeños experimentos

468
00:27:34,653 --> 00:27:36,821
en los usuarios,

469
00:27:36,905 --> 00:27:39,866
y con el tiempo,
haciendo experimentos constantes,

470
00:27:39,949 --> 00:27:45,288
se desarrolla la forma más adecuada para
que los usuarios hagan lo que quieres.

471
00:27:45,372 --> 00:27:46,790
Es manipulación.

472
00:27:47,332 --> 00:27:49,292
Me siento como una cobaya humana.

473
00:27:49,834 --> 00:27:51,920
Lo eres. Todos lo somos.

474
00:27:52,545 --> 00:27:55,548
Y no es
para desarrollar una cura para el cáncer.

475
00:27:55,632 --> 00:27:58,134
No es que intenten beneficiarnos.

476
00:27:58,218 --> 00:28:01,680
Solo somos zombis
y quieren que veamos más anuncios

477
00:28:01,763 --> 00:28:03,181
para ganar más dinero.

478
00:28:03,556 --> 00:28:08,228
Facebook llevó a cabo lo que llamaron
"experimentos de contagio a gran escala".

479
00:28:08,311 --> 00:28:09,145
Vale.

480
00:28:09,229 --> 00:28:12,857
¿Cómo usamos
las señales subliminales en las páginas

481
00:28:13,400 --> 00:28:17,570
para que más personas voten
en las elecciones?

482
00:28:17,987 --> 00:28:20,824
Y descubrieron que podían hacerlo.

483
00:28:20,907 --> 00:28:24,160
Una cosa que concluyeron es
que ahora sabemos

484
00:28:24,744 --> 00:28:28,915
que podemos afectar el comportamiento
y las emociones del mundo real

485
00:28:28,998 --> 00:28:32,877
sin accionar la conciencia del usuario.

486
00:28:33,378 --> 00:28:37,382
No tienen ni idea.

487
00:28:38,049 --> 00:28:41,970
Dirigimos estos motores
de inteligencia artificial hacia nosotros

488
00:28:42,053 --> 00:28:46,224
para realizar ingeniería inversa
de lo que provoca respuestas.

489
00:28:47,100 --> 00:28:51,479
Es como estimular los nervios de una araña
para ver qué hace que responda.

490
00:28:51,938 --> 00:28:53,940
Es un experimento de prisión,

491
00:28:54,023 --> 00:28:56,735
donde estamos
metiendo a la gente en la matriz

492
00:28:56,818 --> 00:29:00,530
y recogemos todo ese dinero
y los datos de toda su actividad

493
00:29:00,613 --> 00:29:03,116
para beneficiarnos. Y ni nos enteramos.

494
00:29:04,117 --> 00:29:07,912
Queremos averiguar
cómo manipularte lo más rápido posible

495
00:29:07,996 --> 00:29:10,081
y darte el subidón de dopamina.

496
00:29:10,165 --> 00:29:12,542
Lo hicimos genial en Facebook.

497
00:29:12,625 --> 00:29:14,919
Instagram lo ha hecho y WhatsApp

498
00:29:15,003 --> 00:29:17,380
y Snapchat y Twitter.

499
00:29:17,464 --> 00:29:19,424
Es exactamente

500
00:29:19,507 --> 00:29:22,427
lo que un jáquer como yo inventaría,

501
00:29:22,510 --> 00:29:27,015
porque explotas una vulnerabilidad
en la psicología humana.

502
00:29:27,098 --> 00:29:28,725
EXPRESIDENTE DE FACEBOOK

503
00:29:28,808 --> 00:29:33,438
Creo que los inventores, los creadores...

504
00:29:33,980 --> 00:29:37,317
yo, Mark...

505
00:29:37,400 --> 00:29:40,403
Kevin Systrom en Instagram,
toda esta gente...

506
00:29:41,154 --> 00:29:46,451
lo entendimos perfectamente
y lo hicimos de todas formas.

507
00:29:50,580 --> 00:29:53,750
Nadie se molestó
cuando aparecieron las bicicletas.

508
00:29:55,043 --> 00:29:58,004
Cuando todo el mundo empezó
a ir en bicicleta

509
00:29:58,087 --> 00:30:00,924
nadie dijo:
"Dios, hemos destruido la sociedad.

510
00:30:01,007 --> 00:30:03,051
Las bicicletas afectan a la gente

511
00:30:03,134 --> 00:30:05,261
las aleja de sus hijos,

512
00:30:05,345 --> 00:30:08,765
arruinan la democracia,
la gente ya no sabe qué es verdad".

513
00:30:08,848 --> 00:30:11,476
Nunca dijimos nada de eso
de una bicicleta.

514
00:30:12,769 --> 00:30:16,147
Si algo es una herramienta,
está ahí tirado

515
00:30:16,731 --> 00:30:18,733
esperando pacientemente.

516
00:30:19,317 --> 00:30:22,821
Si no lo es, te exige cosas,

517
00:30:22,904 --> 00:30:26,533
te seduce, te manipula,
quiere cosas de ti.

518
00:30:26,616 --> 00:30:30,495
Y hemos pasado de un entorno tecnológico
basado en herramientas

519
00:30:31,037 --> 00:30:34,499
a uno basado en la adicción
y la manipulación.

520
00:30:34,582 --> 00:30:35,708
Ese es el cambio.

521
00:30:35,792 --> 00:30:39,420
Las redes sociales no son
una herramienta que espere ser utilizada.

522
00:30:39,504 --> 00:30:43,466
Tienen sus propios objetivos
y sus propios medios para perseguirlos

523
00:30:43,550 --> 00:30:45,677
usando tu psicología contra ti.

524
00:30:48,888 --> 00:30:52,767
"SOLO HAY DOS INDUSTRIAS
QUE LLAMAN A SUS CLIENTES 'CONSUMIDORES':

525
00:30:52,851 --> 00:30:55,562
LAS DE DROGAS Y LAS DE SOFTWARE".

526
00:30:57,564 --> 00:31:02,193
Hace unos años,
era el presidente de Pinterest.

527
00:31:03,152 --> 00:31:08,366
Volvía a casa y no podía dejar el móvil

528
00:31:08,449 --> 00:31:12,161
a pesar de tener dos niños
que necesitaban mi amor y atención.

529
00:31:12,245 --> 00:31:15,748
Estaba en la despensa,
escribiendo un correo

530
00:31:15,832 --> 00:31:17,542
o mirando Pinterest.

531
00:31:18,001 --> 00:31:19,627
Pensaba: "Menuda ironía.

532
00:31:19,711 --> 00:31:22,046
Voy a trabajar durante el día

533
00:31:22,130 --> 00:31:26,426
y a construir algo de lo que caigo presa".

534
00:31:26,509 --> 00:31:30,096
Y no podía... Había momentos
en que no podía evitarlo.

535
00:31:32,307 --> 00:31:36,102
El que más me gusta es Twitter.

536
00:31:36,728 --> 00:31:38,021
Antes era Reddit.

537
00:31:38,104 --> 00:31:42,859
He tenido que escribir un software
para acabar con mi adicción a leer Reddit.

538
00:31:45,403 --> 00:31:47,780
Soy más adicto a mi correo.

539
00:31:47,864 --> 00:31:49,866
En serio. Lo noto.

540
00:31:52,577 --> 00:31:54,954
Bueno, es interesante que,

541
00:31:55,038 --> 00:31:58,166
sabiendo lo que pasaba
detrás de la cortina,

542
00:31:58,249 --> 00:32:01,628
no podía controlar mi uso.

543
00:32:01,711 --> 00:32:03,046
Da un poco de miedo.

544
00:32:03,630 --> 00:32:07,175
Incluso sabiendo cómo funcionan
estos trucos, caigo en ellos.

545
00:32:07,258 --> 00:32:09,886
Cogeré el móvil y perderé 20 minutos.

546
00:32:12,805 --> 00:32:15,725
¿Revisas tu móvil
antes de hacer pis por la mañana

547
00:32:15,808 --> 00:32:17,477
o mientras haces pis?

548
00:32:17,560 --> 00:32:19,479
Porque no hay más opciones.

549
00:32:19,562 --> 00:32:23,274
Lo intenté con toda mi fuerza de voluntad:

550
00:32:23,358 --> 00:32:26,903
"Voy a dejar el móvil en el coche
cuando vaya a casa".

551
00:32:26,986 --> 00:32:32,617
Me lo dije mil veces, mil días diferentes:
"No llevaré el móvil a la habitación",

552
00:32:32,700 --> 00:32:34,535
y a las 21:00:

553
00:32:34,619 --> 00:32:37,121
"Quiero llevar el móvil a la habitación".

554
00:32:37,872 --> 00:32:41,125
Y eso fue... La fuerza de voluntad fue
el primer intento

555
00:32:41,209 --> 00:32:44,295
y el segundo fue la fuerza bruta.

556
00:32:44,379 --> 00:32:45,880
<i>La caja fuerte de cocina.</i>

557
00:32:45,964 --> 00:32:49,801
<i>La caja fuerte de la cocina es</i>
<i>un nuevo contenedor revolucionario</i>

558
00:32:49,884 --> 00:32:51,678
<i>que ayuda contra la tentación.</i>

559
00:32:51,761 --> 00:32:56,724
<i>Lo único que tiene que hacer David es</i>
<i>meter esas tentaciones en la caja fuerte.</i>

560
00:32:57,350 --> 00:33:00,728
<i>A continuación, gira el disco</i>
<i>para ajustar el temporizador</i>

561
00:33:01,479 --> 00:33:04,232
<i>y lo presiona para activar el bloqueo.</i>

562
00:33:04,315 --> 00:33:05,525
<i>Es genial...</i>

563
00:33:05,608 --> 00:33:06,776
Tenemos eso, ¿no?

564
00:33:06,859 --> 00:33:08,569
<i>...videojuegos, tarjetas y móviles.</i>

565
00:33:08,653 --> 00:33:09,570
Sí.

566
00:33:09,654 --> 00:33:13,866
<i>Cuando está cerrada, no se abre</i>
<i>hasta que el temporizador llega a cero.</i>

567
00:33:13,950 --> 00:33:17,537
Ese el tema.
Las redes sociales son una droga.

568
00:33:17,620 --> 00:33:20,873
Tenemos un imperativo biológico básico

569
00:33:20,957 --> 00:33:23,084
para conectar con otras personas.

570
00:33:23,167 --> 00:33:28,214
Eso afecta a la liberación de dopamina
en las vías de recompensas.

571
00:33:28,297 --> 00:33:32,552
Hay millones de años de evolución
detrás de ese sistema

572
00:33:32,635 --> 00:33:35,430
para que podamos unirnos
y vivir en comunidades,

573
00:33:35,513 --> 00:33:38,016
encontrar compañeros
y propagar la especie.

574
00:33:38,099 --> 00:33:41,853
No hay duda de que un vehículo
como las redes sociales,

575
00:33:41,936 --> 00:33:45,690
que optimiza esta conexión entre la gente,

576
00:33:45,773 --> 00:33:48,568
tendrá potencial de adicción.

577
00:33:52,780 --> 00:33:54,115
¡Para, papá!

578
00:33:55,450 --> 00:33:58,453
Tengo que enviar mil snips antes de cenar.

579
00:33:58,536 --> 00:33:59,537
¿Snips?

580
00:33:59,620 --> 00:34:01,080
No sé qué es eso.

581
00:34:01,164 --> 00:34:03,207
- Qué bien huele.
- Gracias.

582
00:34:03,291 --> 00:34:05,877
Pensé en utilizar los cinco sentidos

583
00:34:05,960 --> 00:34:07,712
para disfrutar de la cena.

584
00:34:07,795 --> 00:34:11,382
He decidido
que nada de móviles en la mesa.

585
00:34:11,466 --> 00:34:13,301
Dádmelos.

586
00:34:13,801 --> 00:34:14,802
- ¿En serio?
- Sí.

587
00:34:15,928 --> 00:34:18,056
- Vale.
- Gracias. ¿Ben?

588
00:34:18,139 --> 00:34:19,974
- Vale.
- La ladrona de móviles.

589
00:34:21,017 --> 00:34:21,934
- Dame.
- ¡Mamá!

590
00:34:22,602 --> 00:34:26,147
Aquí estarán a salvo
hasta después de la cena...

591
00:34:27,273 --> 00:34:31,277
y todos podréis relajaros. ¿Vale?

592
00:34:47,418 --> 00:34:49,253
- ¿Puedo ver quién es?
- No.

593
00:34:54,759 --> 00:34:56,969
Voy a por otro tenedor.

594
00:34:58,304 --> 00:34:59,263
Gracias.

595
00:35:04,727 --> 00:35:06,771
Cariño, no puedes abrir eso.

596
00:35:06,854 --> 00:35:09,315
Lo cerré durante una hora.

597
00:35:11,192 --> 00:35:13,361
¿De qué hablamos?

598
00:35:13,444 --> 00:35:17,824
Podríamos hablar de los locos
del extremo centro que he visto hoy.

599
00:35:17,907 --> 00:35:18,825
- Por favor.
- ¿Qué?

600
00:35:18,908 --> 00:35:20,785
No quiero hablar de eso.

601
00:35:20,868 --> 00:35:23,538
- ¿Qué pasa con ellos?
- ¿Ves? No lo entiende.

602
00:35:23,621 --> 00:35:24,622
Depende.

603
00:35:24,705 --> 00:35:26,624
Es como con la propaganda.

604
00:35:28,709 --> 00:35:29,710
¡Isla!

605
00:35:32,797 --> 00:35:33,756
Dios mío.

606
00:35:37,135 --> 00:35:38,553
- ¿Quieres que...?
- Sí.

607
00:35:41,973 --> 00:35:43,933
Me preocupan mis hijos.

608
00:35:44,016 --> 00:35:46,686
Y si tienes hijos,
me preocupan tus hijos.

609
00:35:46,769 --> 00:35:50,189
Con todo el conocimiento que tengo
y toda la experiencia,

610
00:35:50,273 --> 00:35:54,443
peleo con ellos por el tiempo que usan
los teléfonos y el ordenador.

611
00:35:54,527 --> 00:35:58,197
Le digo a mi hijo:
"¿Cuántas horas pasas con tu móvil?".

612
00:35:58,281 --> 00:36:01,075
Y él: "Media hora, como mucho".

613
00:36:01,159 --> 00:36:04,871
Yo diría que una hora, hora y media.

614
00:36:04,954 --> 00:36:08,708
Miré su registro de pantalla
y eran tres horas y 45 minutos.

615
00:36:11,377 --> 00:36:13,588
No lo creo. ¿De media por día?

616
00:36:13,671 --> 00:36:15,506
- Sí.
- ¿Lo cojo?

617
00:36:15,590 --> 00:36:19,177
No pasa un día
sin que les recuerde a mis hijos

618
00:36:19,260 --> 00:36:21,762
el equilibrio entre placer y dolor,

619
00:36:21,846 --> 00:36:26,267
los estados de deficiencia de dopamina,
el riesgo de adicción.

620
00:36:26,350 --> 00:36:27,310
Veamos.

621
00:36:27,894 --> 00:36:29,687
Dos horas y 50 minutos al día.

622
00:36:29,770 --> 00:36:31,772
- A ver.
- Hoy lo he usado mucho.

623
00:36:31,856 --> 00:36:33,357
- Esta semana.
- Será por eso.

624
00:36:33,441 --> 00:36:37,153
Instagram: seis horas y 13 minutos.
Mi Instagram es peor.

625
00:36:39,572 --> 00:36:43,201
Mi pantalla está destrozada.
Gracias, Cass.

626
00:36:44,410 --> 00:36:45,995
¿Cómo que "gracias, Cass"?

627
00:36:46,078 --> 00:36:49,290
Asustas a mamá con los móviles
sin ser un problema.

628
00:36:49,373 --> 00:36:51,167
No los necesitamos para cenar.

629
00:36:51,250 --> 00:36:54,170
Te entiendo,
pero no es para tanto. No lo es.

630
00:36:56,047 --> 00:36:58,382
Pues no lo uses durante una semana.

631
00:37:01,135 --> 00:37:02,178
Sí.

632
00:37:02,261 --> 00:37:06,349
Sí, si puedes guardarlo
durante una semana...

633
00:37:07,683 --> 00:37:09,518
te compraré una pantalla nueva.

634
00:37:11,062 --> 00:37:12,772
- ¿Empezando ahora?
- Sí.

635
00:37:15,274 --> 00:37:16,859
Vale. Trato hecho.

636
00:37:16,943 --> 00:37:18,903
Tienes que dejarlo aquí, colega.

637
00:37:19,862 --> 00:37:21,364
Voy a enchufarlo.

638
00:37:22,531 --> 00:37:25,076
Que conste que me voy.

639
00:37:25,159 --> 00:37:25,993
Vale.

640
00:37:27,495 --> 00:37:29,413
- Empiezo a contar.
- Una semana.

641
00:37:29,497 --> 00:37:30,331
Madre...

642
00:37:31,457 --> 00:37:32,416
¿Podrá hacerlo?

643
00:37:33,000 --> 00:37:34,252
No sé, ya veremos.

644
00:37:35,002 --> 00:37:36,128
Tú come, ¿vale?

645
00:37:44,095 --> 00:37:45,346
¡Buena cena familiar!

646
00:37:47,682 --> 00:37:49,809
Estos productos no se diseñaron

647
00:37:49,892 --> 00:37:53,896
por psicólogos infantiles
que intentan proteger a los niños.

648
00:37:53,980 --> 00:37:58,734
Se diseñaron para hacer algoritmos
para recomendarte el siguiente video

649
00:37:58,818 --> 00:38:02,321
o para que te hagas una foto con filtro.

650
00:38:03,072 --> 00:38:05,324
2 ME GUSTA

651
00:38:13,291 --> 00:38:15,126
¿SEGURO QUE QUIERES BORRARLO?
NO

652
00:38:15,209 --> 00:38:16,210
SÍ

653
00:38:16,752 --> 00:38:20,256
No es solo que controlen
a qué prestan atención.

654
00:38:21,173 --> 00:38:26,304
Las redes sociales profundizan
en el tronco cerebral

655
00:38:26,387 --> 00:38:29,765
y controlan la autoestima
y la identidad de los niños.

656
00:38:29,849 --> 00:38:31,851
PONME GUAPA

657
00:38:42,069 --> 00:38:43,112
¡QUÉ GUAPA!

658
00:38:43,195 --> 00:38:44,822
DIOS, PRECIOSA

659
00:38:44,905 --> 00:38:46,490
ESTÁS DIVINA

660
00:38:46,574 --> 00:38:49,118
¿PUEDES AGRANDARTE LAS OREJAS?
JA JA

661
00:38:52,246 --> 00:38:55,499
Hemos evolucionado
para preocuparnos por si los demás...

662
00:38:55,583 --> 00:38:56,667
¡QUÉ GUAPA!

663
00:38:56,751 --> 00:38:59,712
...piensan bien de nosotros o no,
porque importa.

664
00:38:59,837 --> 00:39:04,550
Pero ¿hemos evolucionado para saber
qué piensan 10 000 personas de nosotros?

665
00:39:04,633 --> 00:39:05,885
No hemos evolucionado

666
00:39:05,968 --> 00:39:10,348
para recibir aprobación social
cada cinco minutos.

667
00:39:10,431 --> 00:39:13,142
No estamos diseñados para eso.

668
00:39:15,394 --> 00:39:19,982
Organizamos nuestras vidas en torno
a este sentido de perfección percibida,

669
00:39:20,733 --> 00:39:23,277
porque recibimos
recompensas a corto plazo:

670
00:39:23,361 --> 00:39:25,154
corazones, me gusta, pulgares.

671
00:39:25,237 --> 00:39:28,407
Y lo confundimos con valores y con verdad.

672
00:39:29,825 --> 00:39:33,120
Y realmente es
una popularidad falsa y frágil...

673
00:39:33,913 --> 00:39:37,458
a corto plazo y eso te deja aún más

674
00:39:37,541 --> 00:39:39,919
vacío que antes de hacerlo.

675
00:39:41,295 --> 00:39:43,381
Porque entras en un círculo vicioso

676
00:39:43,464 --> 00:39:47,343
en el que piensas:
"¿Qué hago ahora? Porque lo necesito".

677
00:39:48,177 --> 00:39:50,805
Apliquemos eso
a dos mil millones de personas

678
00:39:50,888 --> 00:39:54,809
y pensemos en cómo reaccionamos
ante las percepciones de los demás.

679
00:39:54,892 --> 00:39:56,477
Es... Es horrible.

680
00:39:56,977 --> 00:39:58,229
Es muy malo.

681
00:40:00,856 --> 00:40:05,069
Ha habido un aumento enorme
en la depresión y la ansiedad

682
00:40:05,152 --> 00:40:10,950
en los adolescentes estadounidenses
que empezó entre... 2011 y 2013.

683
00:40:11,033 --> 00:40:15,371
El número de chicas
de cada 100 000 en este país

684
00:40:15,454 --> 00:40:19,959
que ingresaban en un hospital cada año
porque se cortaron o se hicieron daño,

685
00:40:20,042 --> 00:40:23,921
se mantuvo estable hasta 2010, 2011,

686
00:40:24,004 --> 00:40:25,756
y luego empezó a subir.

687
00:40:28,759 --> 00:40:31,971
Ha subido un 62 %
en las adolescentes mayores.

688
00:40:32,054 --> 00:40:33,931
INGRESOS HOSPITALARIOS
POR AUTOLESIÓN NO FATAL

689
00:40:34,014 --> 00:40:38,310
Ha subido un 189 % en las preadolescentes.
Eso es casi el triple.

690
00:40:40,020 --> 00:40:43,107
Lo peor es
que vemos el mismo patrón con el suicidio.

691
00:40:43,190 --> 00:40:44,900
TASA DE SUICIDIO
POR CADA 1 000 000 DE CHICAS

692
00:40:44,984 --> 00:40:47,570
Las adolescentes mayores, de 15 a 19 años,

693
00:40:47,653 --> 00:40:51,740
han subido un 70 % en comparación
con la primera década de este siglo.

694
00:40:51,991 --> 00:40:55,077
Las preadolescentes,
que tienen unas tasas muy bajas,

695
00:40:55,161 --> 00:40:57,663
han subido un 151 %.

696
00:40:58,831 --> 00:41:01,709
Y ese patrón apunta a las redes sociales.

697
00:41:01,792 --> 00:41:03,961
REDES SOCIALES PARA MÓVILES

698
00:41:04,044 --> 00:41:07,214
La generación Z,
los nacidos después de 1996,

699
00:41:07,298 --> 00:41:10,342
son la primera generación de la historia

700
00:41:10,426 --> 00:41:12,636
que llegó a las redes sociales
en el instituto.

701
00:41:15,973 --> 00:41:17,433
¿Cómo pasan el tiempo?

702
00:41:19,727 --> 00:41:22,480
Vuelven a casa y cogen sus dispositivos.

703
00:41:24,315 --> 00:41:29,195
Toda una generación está más ansiosa,
más frágil, más deprimida.

704
00:41:30,613 --> 00:41:33,282
Les preocupa mucho más asumir riesgos.

705
00:41:34,325 --> 00:41:37,536
El número de carnés de conducir ha bajado.

706
00:41:38,954 --> 00:41:41,081
El número que ha tenido una cita

707
00:41:41,165 --> 00:41:44,251
o alguna relación romántica
está bajando rápidamente.

708
00:41:47,505 --> 00:41:49,715
Es un cambio real en una generación.

709
00:41:53,177 --> 00:41:57,306
Y por cada una de ellas,
por cada hospitalización,

710
00:41:57,389 --> 00:42:00,267
hay una familia traumatizada
y horrorizada.

711
00:42:00,351 --> 00:42:02,353
"¿Qué les pasa a nuestros hijos?".

712
00:42:19,411 --> 00:42:21,038
Para mí está muy claro.

713
00:42:22,873 --> 00:42:28,128
Estos servicios están matando gente
y haciendo que se suiciden.

714
00:42:29,088 --> 00:42:33,300
No conozco a ningún padre que diga:
"Sí, quiero que mis hijos crezcan

715
00:42:33,384 --> 00:42:36,887
sintiéndose manipulados
por los diseñadores

716
00:42:36,971 --> 00:42:39,682
que manipulan su atención,
impidiéndoles hacer los deberes,

717
00:42:39,765 --> 00:42:42,601
comparándose
con estándares de belleza irreales".

718
00:42:42,685 --> 00:42:44,687
Nadie quiere eso.

719
00:42:45,104 --> 00:42:46,355
Nadie.

720
00:42:46,438 --> 00:42:48,482
Teníamos protecciones.

721
00:42:48,566 --> 00:42:50,943
Cuando los niños veían dibujos animados,

722
00:42:51,026 --> 00:42:52,778
nos preocupaba protegerlos.

723
00:42:52,861 --> 00:42:56,574
Era: "No se pueden dirigir
determinados anuncios a los niños".

724
00:42:57,366 --> 00:43:02,454
Pero coges YouTube para niños
y consume toda la economía de la atención.

725
00:43:02,538 --> 00:43:04,915
Los niños están desprotegidos.

726
00:43:04,999 --> 00:43:07,710
Las protecciones
y las normas han desaparecido.

727
00:43:10,296 --> 00:43:17,261
TIEMPO SIN TELÉFONO

728
00:43:18,304 --> 00:43:22,141
Estamos entrenando y acondicionando
a una nueva generación...

729
00:43:23,434 --> 00:43:29,148
que cuando se siente incómoda,
sola, insegura o asustada

730
00:43:29,231 --> 00:43:31,775
tiene un chupete digital

731
00:43:32,234 --> 00:43:36,488
que atrofia la capacidad
para lidiar con eso.

732
00:43:53,964 --> 00:43:56,884
Photoshop no tenía mil ingenieros

733
00:43:56,967 --> 00:43:58,969
usando tus avisos, tus amigos,

734
00:43:59,053 --> 00:44:02,431
la IA para predecir
lo que te va a volver adicto,

735
00:44:02,514 --> 00:44:04,516
manipularte
o permitir que los anunciantes

736
00:44:04,600 --> 00:44:06,894
prueben 60 000 textos o colores...

737
00:44:06,977 --> 00:44:08,395
CONGRESO ANTIMONOPOLIO TECNOLÓGICO

738
00:44:08,479 --> 00:44:11,065
...para ver cómo manipularte mejor.

739
00:44:11,148 --> 00:44:14,985
Esta es una nueva especie
de poder e influencia.

740
00:44:16,070 --> 00:44:19,156
Los métodos que se usan

741
00:44:19,239 --> 00:44:22,868
para jugar con la capacidad
para ser adictos o influenciados

742
00:44:22,951 --> 00:44:25,120
pueden ser diferentes esta vez.

743
00:44:25,204 --> 00:44:28,916
Eran diferentes cuando aparecieron
los periódicos y la imprenta,

744
00:44:28,999 --> 00:44:31,794
y eran diferentes
cuando llegó la televisión

745
00:44:31,877 --> 00:44:34,004
y había tres emisoras principales...

746
00:44:34,088 --> 00:44:36,382
- En ese momento.
- Eso es lo que digo.

747
00:44:36,465 --> 00:44:38,384
Pero hay un nuevo nivel

748
00:44:38,467 --> 00:44:42,054
y eso ha pasado muchas veces antes.

749
00:44:42,137 --> 00:44:45,099
Es el último nivel que hemos visto.

750
00:44:45,182 --> 00:44:51,188
Se dice que ya nos adaptaremos.
Aprenderemos a vivir con los dispositivos

751
00:44:51,271 --> 00:44:53,732
como aprendimos a vivir con los demás.

752
00:44:53,816 --> 00:44:56,694
Y lo que se olvida es
que hay algo nuevo aquí.

753
00:44:57,528 --> 00:45:00,322
Quizá lo más peligroso de todo esto
sea el hecho

754
00:45:00,406 --> 00:45:04,410
de que está impulsado por una tecnología
que avanza exponencialmente.

755
00:45:04,910 --> 00:45:05,911
PODER DE PROCESAMIENTO

756
00:45:05,994 --> 00:45:09,081
Si hablamos desde los años 60 hasta hoy,

757
00:45:09,873 --> 00:45:12,960
el poder de procesamiento ha aumentado
en un trillón.

758
00:45:13,794 --> 00:45:18,340
Ninguna otra cosa ha crecido a ese ritmo.

759
00:45:18,424 --> 00:45:22,177
Los coches son el doble de rápidos.

760
00:45:22,261 --> 00:45:25,264
Y casi todo lo demás es insignificante.

761
00:45:25,347 --> 00:45:27,182
Y quizá lo más importante,

762
00:45:27,266 --> 00:45:31,353
nuestra fisiología,
nuestros cerebros no han evolucionado.

763
00:45:31,854 --> 00:45:35,232
TIEMPO SIN TELÉFONO

764
00:45:37,401 --> 00:45:41,488
Los seres humanos a nivel mental,
corporal y físico

765
00:45:41,947 --> 00:45:43,866
no sufrirán grandes cambios.

766
00:45:56,837 --> 00:46:00,924
Podemos hacer ingeniería genética
y desarrollar nuevos seres humanos,

767
00:46:01,008 --> 00:46:05,220
pero siendo realistas,
vivimos en un hardware, un cerebro,

768
00:46:05,304 --> 00:46:07,222
que tiene millones de años,

769
00:46:07,306 --> 00:46:10,559
y tenemos esta pantalla,
y en el lado opuesto

770
00:46:10,642 --> 00:46:13,562
hay miles de ingenieros
y supercomputadores

771
00:46:13,645 --> 00:46:16,106
con objetivos distintos a los tuyos,

772
00:46:16,190 --> 00:46:19,693
así que ¿quién va a ganar el partido?

773
00:46:25,574 --> 00:46:26,909
¿Cómo vamos perdiendo?

774
00:46:27,117 --> 00:46:29,787
- No lo sé.
- ¿Dónde está? Esto no es normal.

775
00:46:29,870 --> 00:46:32,080
¿Me he pasado de amigos y familiares?

776
00:46:32,164 --> 00:46:34,082
- Puede.
- O fueron los anuncios.

777
00:46:34,166 --> 00:46:37,795
No. Algo va mal.
Pasemos al modo de resurrección.

778
00:46:39,713 --> 00:46:44,051
Cuando piensas en la IA,
crees que puede arruinar el mundo

779
00:46:44,134 --> 00:46:47,221
y piensas en <i>Terminator</i>
y en Arnold Schwarzenegger...

780
00:46:47,638 --> 00:46:48,680
Volveré.

781
00:46:48,764 --> 00:46:52,684
...ves drones y piensas:
"La IA va a matar gente".

782
00:46:53,644 --> 00:46:59,817
Y lo que la gente no sabe es
que la IA ya controla el mundo de hoy.

783
00:46:59,900 --> 00:47:03,237
Hablar de "una inteligencia artificial"
es una metáfora.

784
00:47:03,320 --> 00:47:09,451
En estas empresas como Google
hay habitaciones enormes.

785
00:47:10,327 --> 00:47:13,121
Algunas bajo tierra, otras bajo el agua,

786
00:47:13,205 --> 00:47:14,498
con ordenadores.

787
00:47:14,581 --> 00:47:17,835
Toneladas de ordenadores
hasta donde alcanza la vista.

788
00:47:18,460 --> 00:47:20,504
Están muy conectados entre ellos

789
00:47:20,587 --> 00:47:22,923
y ejecutan programas muy complicados,

790
00:47:23,006 --> 00:47:26,009
enviando información
entre ellos todo el tiempo.

791
00:47:26,802 --> 00:47:28,595
Y ejecutarán muchos programas

792
00:47:28,679 --> 00:47:30,806
y productos en esas mismas máquinas.

793
00:47:31,348 --> 00:47:33,600
Algunas cosas son simples algoritmos,

794
00:47:33,684 --> 00:47:37,521
otras son  tan complejas
como para llamarlas inteligencias.

795
00:47:40,023 --> 00:47:43,861
Diría que los algoritmos son
opiniones incrustadas en el código...

796
00:47:45,070 --> 00:47:47,656
y que los algoritmos no son objetivos.

797
00:47:48,365 --> 00:47:51,577
Están optimizados
para una definición de éxito.

798
00:47:52,244 --> 00:47:53,370
Si piensas

799
00:47:53,453 --> 00:47:57,124
en una empresa comercial
que crea un algoritmo

800
00:47:57,207 --> 00:47:59,293
según su definición de éxito,

801
00:47:59,710 --> 00:48:01,336
será con interés comercial.

802
00:48:01,587 --> 00:48:02,671
Por beneficio.

803
00:48:03,130 --> 00:48:07,384
Le dices al ordenador:
"Quiero este resultado",

804
00:48:07,467 --> 00:48:10,262
y el ordenador aprende a hacerlo.

805
00:48:10,345 --> 00:48:14,850
De ahí viene el "aprendizaje automático".
Y cada día es mejor eligiendo

806
00:48:14,933 --> 00:48:19,438
las publicaciones correctas
para que pases más tiempo en ese producto.

807
00:48:19,521 --> 00:48:22,232
Y nadie entiende lo que hacen

808
00:48:22,316 --> 00:48:23,901
para lograr ese objetivo.

809
00:48:23,984 --> 00:48:28,238
El algoritmo tiene mente propia,
así que aunque una persona lo escriba,

810
00:48:28,906 --> 00:48:30,657
está escrito de tal forma

811
00:48:30,741 --> 00:48:35,037
que construyes la máquina
y la máquina cambia.

812
00:48:35,120 --> 00:48:37,873
Solo hay un puñado de gente
en estas empresas,

813
00:48:37,956 --> 00:48:40,000
en Facebook, Twitter y demás...

814
00:48:40,083 --> 00:48:43,795
Solo unos pocos entienden
cómo funcionan esos sistemas,

815
00:48:43,879 --> 00:48:46,715
e incluso ellos no entienden bien

816
00:48:46,798 --> 00:48:49,551
qué va a pasar
con un contenido en particular.

817
00:48:49,968 --> 00:48:55,474
Como humanos, casi hemos perdido
el control de estos sistemas,

818
00:48:55,891 --> 00:48:59,603
porque controlan la información que vemos.

819
00:48:59,686 --> 00:49:02,439
Nos controlan más que nosotros a ellos.

820
00:49:03,815 --> 00:49:07,319
Cruza referencias
con equivalentes en su zona.

821
00:49:07,402 --> 00:49:09,571
Sus dobles psicométricos.

822
00:49:09,655 --> 00:49:13,700
Hay 13 694 personas
comportándose como él en su región.

823
00:49:13,784 --> 00:49:16,370
- ¿Su tendencia?
- Necesitamos algo bueno

824
00:49:16,453 --> 00:49:17,704
para la resurrección,

825
00:49:17,788 --> 00:49:19,957
dado que lo típico no funciona.

826
00:49:20,040 --> 00:49:21,875
Ni esa monada del instituto.

827
00:49:22,334 --> 00:49:25,253
Según mi análisis,
el contenido "extremo centro"

828
00:49:25,337 --> 00:49:28,256
tiene un 62, 3% de posibilidades
de interacción a largo plazo.

829
00:49:28,340 --> 00:49:29,299
No está mal.

830
00:49:30,300 --> 00:49:32,010
No basta.

831
00:49:32,386 --> 00:49:35,305
Le hemos notificado
sobre fotos etiquetadas,

832
00:49:35,389 --> 00:49:39,017
invitaciones, eventos actuales,
incluso un mensaje de Rebecca.

833
00:49:39,101 --> 00:49:42,729
Pero ¿y el usuario 01265923010?

834
00:49:42,813 --> 00:49:44,648
Sí, le encantaban sus mensajes.

835
00:49:44,731 --> 00:49:47,776
Todos durante meses, y ahora nada.

836
00:49:47,859 --> 00:49:50,487
Hay un 92, 3% de posibilidades
de resurreción

837
00:49:50,570 --> 00:49:52,406
con una notificación sobre Ana.

838
00:49:53,907 --> 00:49:55,993
NUEVA RELACIÓN

839
00:49:56,493 --> 00:49:57,494
Y su nuevo amigo.

840
00:49:58,495 --> 00:50:04,001
TIEMPO SIN TELÉFONO

841
00:50:24,354 --> 00:50:26,023
¡TU EX TIENE UNA NUEVA RELACIÓN!

842
00:50:26,106 --> 00:50:27,357
No me lo puedo creer.

843
00:50:35,657 --> 00:50:36,616
Vale.

844
00:50:37,576 --> 00:50:38,785
ANA Y LUIZ
ESTÁN EN UNA RELACIÓN

845
00:50:38,869 --> 00:50:39,703
¿Qué?

846
00:50:41,580 --> 00:50:42,789
¡Bam! ¡Hemos vuelto!

847
00:50:42,873 --> 00:50:44,374
Volvamos a ganar dinero.

848
00:50:44,458 --> 00:50:46,334
Y a conectarlos con todos.

849
00:50:46,418 --> 00:50:49,337
Le doy acceso
a la información que le interesa.

850
00:50:49,755 --> 00:50:53,717
¿Alguna vez os preguntáis
si la información es buena para Ben?

851
00:50:57,220 --> 00:50:58,221
- No.
- No.

852
00:51:17,532 --> 00:51:19,076
<i>Te he hechizado.</i>

853
00:51:25,040 --> 00:51:26,374
<i>Porque eres mío.</i>

854
00:51:34,508 --> 00:51:36,593
<i>Más te vale dejar lo que haces.</i>

855
00:51:41,181 --> 00:51:42,265
<i>No miento.</i>

856
00:51:42,349 --> 00:51:44,893
PRUEBA A/B
EXTREMO CENTRO

857
00:51:44,976 --> 00:51:46,686
<i>No, no miento.</i>

858
00:51:49,981 --> 00:51:51,817
<i>Sabes que no lo soporto.</i>

859
00:51:53,026 --> 00:51:54,611
<i>Estás dando vueltas.</i>

860
00:51:55,612 --> 00:51:57,239
<i>Ya lo sabes.</i>

861
00:51:58,782 --> 00:52:02,077
<i>No lo soporto porque me humillaste.</i>

862
00:52:03,286 --> 00:52:04,121
<i>Sí.</i>

863
00:52:06,456 --> 00:52:08,375
<i>Te he hechizado.</i>

864
00:52:12,379 --> 00:52:14,840
<i>Porque eres mío.</i>

865
00:52:18,718 --> 00:52:19,845
<i>Eres mío...</i>

866
00:52:20,929 --> 00:52:24,349
Imagina que estás en Facebook...

867
00:52:24,766 --> 00:52:29,312
y estás jugando
contra esta inteligencia artificial

868
00:52:29,396 --> 00:52:31,314
que lo sabe todo sobre ti,

869
00:52:31,398 --> 00:52:34,568
anticipa tus movimientos
y no sabes nada sobre ella,

870
00:52:34,651 --> 00:52:37,404
salvo que hay vídeos de gatos
y cumpleaños.

871
00:52:37,821 --> 00:52:39,656
No es una pelea justa.

872
00:52:41,575 --> 00:52:43,869
Ben y Jerry, ¡es hora de irse!

873
00:52:51,126 --> 00:52:51,960
¿Ben?

874
00:53:02,679 --> 00:53:03,513
Ben.

875
00:53:05,182 --> 00:53:06,057
Vamos.

876
00:53:07,225 --> 00:53:08,894
Hora de ir a clase. Vamos.

877
00:53:13,231 --> 00:53:16,735
CENTRO PARA LA TECNOLOGÍA HUMANA

878
00:53:31,374 --> 00:53:33,543
- ¿Qué tal hoy?
- Estoy nervioso.

879
00:53:33,627 --> 00:53:34,628
- ¿Sí?
- Sí.

880
00:53:37,380 --> 00:53:38,965
Esperábamos el momento

881
00:53:39,049 --> 00:53:42,969
en que la tecnología superase
a la fuerza y la inteligencia humana.

882
00:53:43,053 --> 00:53:47,015
¿Cuándo va a pasar la singularidad,
sustituirnos y ser más lista que nosotros?

883
00:53:48,141 --> 00:53:50,101
Pero hay un momento mucho antes…

884
00:53:50,977 --> 00:53:55,565
cuando la tecnología supera
las debilidades humanas.

885
00:53:57,484 --> 00:54:02,030
Este punto que se cruza es
la raíz de la adicción,

886
00:54:02,113 --> 00:54:04,741
la polarización, la radicalización, la ira

887
00:54:04,824 --> 00:54:06,368
la vanidad, todo.

888
00:54:07,702 --> 00:54:09,913
Eso domina a la naturaleza humana,

889
00:54:10,538 --> 00:54:13,500
y es un jaque mate a la humanidad.

890
00:54:30,558 --> 00:54:31,434
Lo siento.

891
00:54:41,528 --> 00:54:44,656
Una de las formas en que intento
que la gente entienda

892
00:54:45,198 --> 00:54:49,828
lo malo que es informarse
en sitios como Facebook

893
00:54:49,911 --> 00:54:51,454
es pensar en la Wikipedia.

894
00:54:51,538 --> 00:54:52,872
PESTAÑA NUEVA

895
00:54:52,956 --> 00:54:55,667
En una página ves lo mismo que los demás.

896
00:54:55,750 --> 00:54:57,002
LA ENCICLOPEDIA LIBRE

897
00:54:57,085 --> 00:55:00,297
Es de las pocas cosas en Internet
que tenemos en común.

898
00:55:00,380 --> 00:55:03,425
Ahora imagina por un segundo
que Wikipedia dice:

899
00:55:03,508 --> 00:55:07,178
"Vamos a dar a cada persona
una definición diferente

900
00:55:07,262 --> 00:55:09,472
y nos pagarán por eso".

901
00:55:09,556 --> 00:55:13,435
Wikipedia te espiará y calculará

902
00:55:13,518 --> 00:55:17,188
qué puede hacer
para que esa persona cambie

903
00:55:17,272 --> 00:55:19,899
por algún interés comercial.

904
00:55:19,983 --> 00:55:21,818
Y luego cambiará la entrada.

905
00:55:22,444 --> 00:55:23,570
¿Te lo imaginas?

906
00:55:23,653 --> 00:55:24,738
Deberías,

907
00:55:24,821 --> 00:55:26,823
porque es lo que pasa en Facebook.

908
00:55:26,906 --> 00:55:28,992
Es lo que pasa en YouTube.

909
00:55:29,075 --> 00:55:31,786
Cuando escribes en Google
"cambio climático",

910
00:55:31,870 --> 00:55:34,998
verás resultados diferentes
según dónde vivas.

911
00:55:35,081 --> 00:55:36,082
EL CAMBIO CLIMÁTICO ES

912
00:55:36,166 --> 00:55:38,460
En ciertas ciudades, se autocompleta

913
00:55:38,543 --> 00:55:40,462
con "es un engaño".

914
00:55:40,545 --> 00:55:42,047
En otros casos, verás

915
00:55:42,130 --> 00:55:44,841
"está destruyendo la naturaleza".

916
00:55:44,924 --> 00:55:48,428
Y no depende
de la verdad sobre el cambio climático,

917
00:55:48,511 --> 00:55:51,097
sino de lo que buscas en Google

918
00:55:51,181 --> 00:55:53,600
y de lo que sabe sobre tus intereses.

919
00:55:55,185 --> 00:55:57,979
Incluso dos amigos que estén muy unidos,

920
00:55:58,063 --> 00:56:00,190
que tengan la misma pandilla,

921
00:56:00,273 --> 00:56:02,942
pueden pensar:
"Veré las noticias en Facebook.

922
00:56:03,026 --> 00:56:06,738
Serán las mismas novedades".
Pero no es así en absoluto.

923
00:56:06,821 --> 00:56:08,448
Ven cosas diferentes

924
00:56:08,531 --> 00:56:10,575
porque se basan en cálculos

925
00:56:10,658 --> 00:56:12,035
sobre preferencias.

926
00:56:12,118 --> 00:56:14,245
EN DIRECTO

927
00:56:14,329 --> 00:56:18,416
Hay que imaginar
que son 2700 millones de <i>Shows de Truman.</i>

928
00:56:18,500 --> 00:56:21,294
Cada persona tiene
su propia realidad con...

929
00:56:22,670 --> 00:56:23,671
sus hechos.

930
00:56:23,755 --> 00:56:27,008
<i>¿Por qué creéis</i>
<i>que Truman nunca se ha acercado</i>

931
00:56:27,092 --> 00:56:30,095
<i>a descubrir la naturaleza de su mundo</i>
<i>hasta ahora?</i>

932
00:56:31,012 --> 00:56:34,099
Aceptamos la realidad del mundo
que se nos presenta.

933
00:56:34,182 --> 00:56:35,141
Así de sencillo.

934
00:56:35,225 --> 00:56:36,393
EN DIRECTO

935
00:56:36,476 --> 00:56:41,064
Con el tiempo, tienes la falsa sensación
de que todos coinciden contigo

936
00:56:41,147 --> 00:56:44,067
porque tus noticias piensan como tú.

937
00:56:44,567 --> 00:56:49,072
Y cuando estás en ese estado
eres fácilmente manipulable,

938
00:56:49,155 --> 00:56:51,741
igual que si te manipulase un mago.

939
00:56:51,825 --> 00:56:55,370
Te enseña un truco y te dice:
"Elige una carta, cualquiera".

940
00:56:55,453 --> 00:57:00,583
Lo que no ves es que lo ha preparado
y eliges la carta que quiere que elijas.

941
00:57:00,667 --> 00:57:03,169
Y así funciona Facebook. Dice:

942
00:57:03,253 --> 00:57:06,172
"Elige a tus amigos
y los vínculos que sigues".

943
00:57:06,256 --> 00:57:08,716
Pero son chorradas. Es como el mago.

944
00:57:08,800 --> 00:57:11,302
Facebook se encarga de tus noticias.

945
00:57:11,386 --> 00:57:14,514
Todos operamos
con un conjunto diferente de hechos.

946
00:57:14,597 --> 00:57:16,474
Cuando eso pasa a gran escala,

947
00:57:16,558 --> 00:57:20,687
ya no puedes contar
ni consumir información

948
00:57:20,770 --> 00:57:23,690
que contradice la visión del mundo
que has creado.

949
00:57:23,773 --> 00:57:28,027
Eso significa que no somos
personas objetivas y constructivas.

950
00:57:28,778 --> 00:57:32,449
¡Abre los ojos,
no te creas las mentiras! Abre...

951
00:57:32,532 --> 00:57:35,160
Luego miras al otro lado

952
00:57:35,243 --> 00:57:38,746
y empiezas a pensar:
"¿Cómo pueden ser tan estúpidos?

953
00:57:38,830 --> 00:57:42,125
Mira toda esta información
que veo constantemente.

954
00:57:42,208 --> 00:57:44,627
¿Cómo es que no ven lo mismo?".

955
00:57:44,711 --> 00:57:47,297
Y la respuesta es que no lo ven.

956
00:57:47,380 --> 00:57:50,800
¡Abre los ojos, no te creas las mentiras!

957
00:57:52,093 --> 00:57:53,720
<i>¿Cómo son los republicanos?</i>

958
00:57:53,803 --> 00:57:55,472
Gente que no tiene ni idea.

959
00:57:55,555 --> 00:57:58,933
El Partido Demócrata es
un sindicato del crimen.

960
00:57:59,017 --> 00:58:03,104
Un estudio del Centro de Investigación Pew
sobre 10 000 adultos

961
00:58:03,188 --> 00:58:05,315
nos muestra más divididos que nunca,

962
00:58:05,398 --> 00:58:09,235
con el mayor nivel en 20 años
de polarización personal y política.

963
00:58:11,696 --> 00:58:14,199
Más de un tercio de los republicanos dicen

964
00:58:14,282 --> 00:58:16,826
que el Partido Demócrata es una amenaza,

965
00:58:16,910 --> 00:58:20,580
más de una cuarta parte de los demócratas
dicen lo mismo de los republicanos.

966
00:58:20,663 --> 00:58:22,499
Muchos de los problemas,

967
00:58:22,582 --> 00:58:24,417
como la polarización política,

968
00:58:24,501 --> 00:58:28,046
existen a montones
en la televisión por cable.

969
00:58:28,129 --> 00:58:31,007
Los medios tienen el mismo problema

970
00:58:31,090 --> 00:58:33,343
que su modelo de negocio,

971
00:58:33,426 --> 00:58:35,762
y es que venden nuestra atención,

972
00:58:35,845 --> 00:58:38,890
e Internet es una forma nueva
y más eficiente de hacerlo.

973
00:58:40,391 --> 00:58:44,145
Trabajaba
en las recomendaciones de YouTube.

974
00:58:44,229 --> 00:58:47,190
Me preocupa que un algoritmo
en el que he trabajado

975
00:58:47,273 --> 00:58:50,401
esté aumentando la polarización
de la sociedad.

976
00:58:50,485 --> 00:58:53,112
Pero desde el punto de vista del tiempo,

977
00:58:53,196 --> 00:58:57,617
esta polarización es muy eficiente
manteniendo a la gente en línea.

978
00:58:58,785 --> 00:59:00,870
<i>Solo enseñan eso</i>

979
00:59:00,954 --> 00:59:02,288
<i>porque les pagan.</i>

980
00:59:02,372 --> 00:59:04,207
<i>- Es absurdo.</i>
- Hola, Benji.

981
00:59:04,791 --> 00:59:06,167
¿Hoy no hay fútbol?

982
00:59:06,251 --> 00:59:08,878
Sí. Estoy poniéndome al día
con las noticias.

983
00:59:08,962 --> 00:59:11,506
<i>Lo que se aleje del extremo centro...</i>

984
00:59:11,589 --> 00:59:14,008
Yo no llamaría a eso noticias.

985
00:59:15,552 --> 00:59:18,721
Siempre hablas
de lo mal que está todo. Ellos también.

986
00:59:19,305 --> 00:59:21,140
Pero eso es propaganda.

987
00:59:21,224 --> 00:59:24,060
<i>No es cierto.</i>
<i>Se trata de lo que tiene sentido.</i>

988
00:59:24,769 --> 00:59:26,938
Hablo en serio. Eso es malo para ti.

989
00:59:27,021 --> 00:59:28,356
Deberías ir a fútbol.

990
00:59:35,154 --> 00:59:37,490
<i>Comparto esto porque me importa.</i>

991
00:59:37,574 --> 00:59:41,077
<i>Me importa que te engañen</i>
<i>y eso no está bien. ¿Vale?</i>

992
00:59:41,160 --> 00:59:43,121
La gente cree
que el algoritmo está diseñado

993
00:59:43,204 --> 00:59:46,833
para darles lo que quieren, pero no.

994
00:59:46,916 --> 00:59:52,589
Intenta encontrar unos túneles
que sean muy poderosos,

995
00:59:52,672 --> 00:59:56,217
intenta encontrar
cuál es el más cercano a tu interés.

996
00:59:56,301 --> 00:59:59,262
Y si empiezas a ver uno de esos vídeos,

997
00:59:59,846 --> 01:00:02,223
te lo recomendará una y otra vez.

998
01:00:02,682 --> 01:00:04,934
No es que nadie quiera que esto pase.

999
01:00:05,018 --> 01:00:07,812
Es lo que hace
el sistema de recomendación.

1000
01:00:07,895 --> 01:00:10,815
Tanto que Kyrie Irving,
el jugador de baloncesto,

1001
01:00:11,399 --> 01:00:14,235
dijo que la Tierra era plana
y se disculpó luego,

1002
01:00:14,319 --> 01:00:16,112
porque culpó a YouTube.

1003
01:00:16,487 --> 01:00:18,656
<i>Haces clic en YouTube</i>

1004
01:00:18,740 --> 01:00:21,492
<i>y dice hasta dónde llega el túnel.</i>

1005
01:00:21,576 --> 01:00:23,369
Cuando fue a la radio a decir:

1006
01:00:23,453 --> 01:00:28,207
"Perdón, no quería engañar a nadie",
unos estudiantes dijeron:

1007
01:00:28,291 --> 01:00:30,293
"Los oficialistas le han pillado".

1008
01:00:31,002 --> 01:00:33,963
El algoritmo recomendó
la teoría de la conspiración

1009
01:00:34,047 --> 01:00:37,634
de la Tierra plana
cientos de millones de veces.

1010
01:00:37,717 --> 01:00:43,890
Es fácil pensar que solo convence
a unos pocos estúpidos,

1011
01:00:43,973 --> 01:00:46,893
pero el algoritmo es
cada vez más inteligente.

1012
01:00:46,976 --> 01:00:50,188
Hoy convencen a la gente
de que la Tierra es plana,

1013
01:00:50,271 --> 01:00:53,816
pero mañana te convencerán
de alguna otra falsedad.

1014
01:00:54,317 --> 01:00:57,820
<i>El 7 de noviembre nació</i>
<i>el hashtag "Pizzagate".</i>

1015
01:00:57,904 --> 01:00:59,197
Pizzagate...

1016
01:01:00,782 --> 01:01:01,658
Madre mía.

1017
01:01:03,159 --> 01:01:06,913
Aún no estoy 100 % segura
de cómo surgió esto,

1018
01:01:06,996 --> 01:01:12,377
pero la idea era que pedir una pizza
significaba traficar con personas.

1019
01:01:12,460 --> 01:01:15,046
Según los grupos crecían en Facebook,

1020
01:01:15,129 --> 01:01:19,967
el motor de recomendación
empezó a sugerir a los usuarios habituales

1021
01:01:20,051 --> 01:01:21,761
que se unieran al Pizzagate.

1022
01:01:21,844 --> 01:01:27,392
Si un usuario era, por ejemplo,
antivacunas o creía en estelas químicas

1023
01:01:27,475 --> 01:01:30,645
o había indicado
a los algoritmos de Facebook

1024
01:01:30,728 --> 01:01:33,398
que era propenso a creer
en conspiraciones,

1025
01:01:33,481 --> 01:01:36,859
el motor recomendaba
los grupos de Pizzagate.

1026
01:01:36,943 --> 01:01:41,072
Al final, esto culminó
con un hombre que apareció con una pistola

1027
01:01:41,155 --> 01:01:44,617
y decidió
que iba a liberar a los niños del sótano

1028
01:01:44,701 --> 01:01:47,036
de la pizzería que no tenía sótano.

1029
01:01:47,120 --> 01:01:50,248
- ¿Qué hacías allí?
- Asegurarme de que no había nada.

1030
01:01:50,415 --> 01:01:52,333
- ¿De qué?
- Un círculo pedófilo.

1031
01:01:52,417 --> 01:01:53,793
- ¿Qué?
- Un círculo pedófilo.

1032
01:01:53,876 --> 01:01:55,878
Habla del Pizzagate.

1033
01:01:55,962 --> 01:02:00,216
Este es un ejemplo
de una teoría de la conspiración

1034
01:02:00,299 --> 01:02:03,678
que se propagó
por todas las redes sociales.

1035
01:02:03,761 --> 01:02:06,097
El motor de recomendación

1036
01:02:06,180 --> 01:02:07,849
lo ofreció a gente

1037
01:02:07,932 --> 01:02:10,643
que nunca había buscado
el término "Pizzagate".

1038
01:02:10,727 --> 01:02:12,687
LA VERDAD SOBRE LOS DEMÓCRATAS
Y LA PEDOFILIA

1039
01:02:12,770 --> 01:02:14,439
Un estudio del MIT dice

1040
01:02:14,522 --> 01:02:19,444
que los bulos en Twitter se difunden
seis veces más rápido que la verdad.

1041
01:02:19,902 --> 01:02:21,863
¿Cómo será el mundo,

1042
01:02:21,946 --> 01:02:24,741
si una cosa tiene esa ventaja
sobre la otra?

1043
01:02:25,283 --> 01:02:27,660
Imagina que estas cosas son como…

1044
01:02:27,744 --> 01:02:31,622
Inclinan el suelo
del comportamiento humano.

1045
01:02:31,706 --> 01:02:34,709
Dificultan o facilitan
determinados comportamientos.

1046
01:02:34,792 --> 01:02:37,420
Y puedes subir la colina,

1047
01:02:37,503 --> 01:02:38,796
pero pocos lo harán,

1048
01:02:38,880 --> 01:02:43,050
así que, a escala social,
inclinas el suelo

1049
01:02:43,134 --> 01:02:45,970
y cambias lo que piensan y hacen
miles de millones de personas.

1050
01:02:46,053 --> 01:02:52,018
Hemos creado un sistema
que se inclina hacia la información falsa.

1051
01:02:52,643 --> 01:02:54,437
No porque queramos,

1052
01:02:54,520 --> 01:02:58,816
sino porque la información falsa hace
que las empresas ganen más dinero

1053
01:02:59,400 --> 01:03:01,611
que la verdad. La verdad es aburrida.

1054
01:03:01,986 --> 01:03:04,489
Es un modelo basado en la desinformación.

1055
01:03:04,906 --> 01:03:08,159
Ganas dinero
cuantos más mensajes no regulados lleguen

1056
01:03:08,701 --> 01:03:11,287
al mejor precio.

1057
01:03:11,662 --> 01:03:13,956
<i>¿Por el cambio climático? Sí.</i>

1058
01:03:14,040 --> 01:03:16,751
<i>Es un engaño. Sí, así es. De eso se trata.</i>

1059
01:03:16,834 --> 01:03:20,046
<i>Cuanto más hablen de ello</i>
<i>y más nos dividan,</i>

1060
01:03:20,129 --> 01:03:22,423
<i>más poder y más control tienen.</i>

1061
01:03:22,507 --> 01:03:25,468
Facebook tiene
miles de millones de noticias.

1062
01:03:26,552 --> 01:03:29,180
No saben qué es real ni qué es verdad,

1063
01:03:29,972 --> 01:03:33,726
por eso el tema es tan crítico.

1064
01:03:33,810 --> 01:03:37,021
<i>No solo el COVID-19</i>
<i>se está extendiendo rápidamente.</i>

1065
01:03:37,104 --> 01:03:40,191
<i>Hay un flujo de desinformación</i>
<i>sobre el virus.</i>

1066
01:03:40,274 --> 01:03:43,694
<i>La idea de que beber más agua</i>
<i>lo eliminará de tu sistema</i>

1067
01:03:43,778 --> 01:03:47,490
<i>es uno de los mitos</i>
<i>que circula en las redes sociales.</i>

1068
01:03:47,573 --> 01:03:50,451
<i>El Gobierno planeó este evento,</i>
<i>creó el virus</i>

1069
01:03:50,535 --> 01:03:52,954
<i>y simuló cómo reaccionarían los países.</i>

1070
01:03:53,955 --> 01:03:55,581
El coronavirus es falso.

1071
01:03:56,165 --> 01:03:57,959
SARS, coronavirus.

1072
01:03:58,376 --> 01:04:01,045
Y mirad cuándo se hizo. En 2018.

1073
01:04:01,128 --> 01:04:03,798
El Gobierno de los Estados Unidos
empezó esto.

1074
01:04:04,215 --> 01:04:09,095
Nadie está enfermo.
Nadie conoce a ningún enfermo.

1075
01:04:09,512 --> 01:04:13,015
Quizá el Gobierno esté usando
el coronavirus como excusa

1076
01:04:13,099 --> 01:04:15,643
para encerrarnos porque ocurre otra cosa.

1077
01:04:15,726 --> 01:04:18,020
El coronavirus no mata a la gente,

1078
01:04:18,104 --> 01:04:20,940
es la radiación 5G que emiten.

1079
01:04:21,023 --> 01:04:22,525
TORRES 5G CORTADAS Y QUEMADAS

1080
01:04:22,608 --> 01:04:24,569
<i>Nos bombardean con rumores.</i>

1081
01:04:25,403 --> 01:04:28,823
<i>La gente está destrozando</i>
<i>torres telefónicas.</i>

1082
01:04:28,906 --> 01:04:32,159
<i>Rusia y China difunden rumores</i>
<i>y teorías conspirativas.</i>

1083
01:04:32,243 --> 01:04:35,246
<i>Esta mañana,</i>
<i>el pánico y las protestas en Ucrania...</i>

1084
01:04:35,329 --> 01:04:38,916
<i>La gente no sabe qué es verdad</i>
<i>y ahora es vital.</i>

1085
01:04:40,001 --> 01:04:42,628
Las fuentes que difunden
información errónea

1086
01:04:42,712 --> 01:04:45,798
han acumulado
52 millones de interacciones.

1087
01:04:45,882 --> 01:04:50,094
Dices que la solución de plata
sería eficaz.

1088
01:04:50,177 --> 01:04:54,140
Bueno, no se ha probado
en esta cepa del coronavirus, pero...

1089
01:04:54,223 --> 01:04:57,226
<i>Lo que vemos con el COVID es</i>
<i>una versión extrema</i>

1090
01:04:57,310 --> 01:05:00,104
<i>de nuestro ecosistema de información.</i>

1091
01:05:01,105 --> 01:05:05,026
<i>Las redes sociales amplifican</i>
<i>los cotilleos y los rumores</i>

1092
01:05:05,109 --> 01:05:08,779
<i>hasta no poder diferenciar qué es verdad,</i>
<i>sin importar el tema.</i>

1093
01:05:26,130 --> 01:05:27,465
¿Sigues en el equipo?

1094
01:05:30,468 --> 01:05:34,430
Voy a comer algo antes de entrenar,
por si quieres venir.

1095
01:05:37,642 --> 01:05:38,684
Da igual.

1096
01:05:45,066 --> 01:05:47,526
<i>Nueve de cada diez no están satisfechos.</i>

1097
01:05:47,610 --> 01:05:50,613
<i>El EC es</i>
<i>como cualquier movimiento político.</i>

1098
01:05:50,696 --> 01:05:54,492
<i>Estamos aquí y... desafiamos este ruido.</i>

1099
01:05:54,575 --> 01:05:57,036
<i>Sois mi gente. Confío en vosotros.</i>

1100
01:05:59,246 --> 01:06:02,583
- El contenido del EC es genial.
- Le encanta.

1101
01:06:02,667 --> 01:06:03,626
Subastando.

1102
01:06:04,627 --> 01:06:08,547
843 postores, vendido por 4,35 centavos
a un fabricante de armas.

1103
01:06:08,631 --> 01:06:10,800
Promocionemos algunos eventos.

1104
01:06:10,883 --> 01:06:13,511
Manifestaciones en su zona esta semana.

1105
01:06:13,594 --> 01:06:15,179
Y tengo un vlogger nuevo.

1106
01:06:17,890 --> 01:06:22,979
<i>Estoy dispuesto a hacer lo que haga falta.</i>

1107
01:06:23,062 --> 01:06:24,939
<i>Cualquier cosa.</i>

1108
01:06:32,154 --> 01:06:35,908
<i>- Suscribiros y volved, porque os digo...</i>
- ¿Ben?

1109
01:06:36,659 --> 01:06:38,869
<i>que tengo cosas muy importantes.</i>

1110
01:06:38,953 --> 01:06:40,287
<i>Cosas muy importantes.</i>

1111
01:06:40,788 --> 01:06:45,292
Uno de los problemas con Facebook es
que, como herramienta de persuasión,

1112
01:06:45,793 --> 01:06:47,920
puede ser el mejor invento.

1113
01:06:48,004 --> 01:06:52,508
Imagina lo que eso significa
en manos de un dictador o un tirano.

1114
01:06:53,718 --> 01:06:57,638
Si quieres controlar
a la población de tu país,

1115
01:06:57,722 --> 01:07:01,308
nunca ha habido
una herramienta tan eficaz como Facebook.

1116
01:07:04,770 --> 01:07:07,398
Algunas de las implicaciones
más preocupantes

1117
01:07:07,481 --> 01:07:11,193
de que los Gobiernos y otros malhechores
usen las redes sociales

1118
01:07:11,610 --> 01:07:13,612
es el daño fuera de Internet.

1119
01:07:13,696 --> 01:07:15,072
El ejemplo más conocido

1120
01:07:15,156 --> 01:07:17,658
es lo que ha pasado en Birmania.

1121
01:07:17,742 --> 01:07:19,160
OFICINA DEL PRESIDENTE

1122
01:07:19,243 --> 01:07:22,913
Allí, cuando la gente piensa en Internet,
piensa en Facebook.

1123
01:07:22,997 --> 01:07:25,916
Y lo que pasa es
que cuando compran un móvil

1124
01:07:26,000 --> 01:07:29,920
viene con Facebook ya descargado

1125
01:07:30,004 --> 01:07:31,505
y con una cuenta abierta.

1126
01:07:31,589 --> 01:07:34,884
Y cuando la gente recibe su móvil,
lo primero que abren

1127
01:07:34,967 --> 01:07:37,595
y lo único que saben abrir es Facebook.

1128
01:07:38,179 --> 01:07:41,891
Una nueva investigación
pone al descubierto la lucha de Facebook

1129
01:07:41,974 --> 01:07:43,809
para abordar el odio en Birmania.

1130
01:07:43,893 --> 01:07:46,020
DEJAD DE MATAR MUSULMANES

1131
01:07:46,103 --> 01:07:49,190
Facebook dio a los militares
y a otros malhechores

1132
01:07:49,273 --> 01:07:51,776
una nueva forma
de manipular la opinión pública

1133
01:07:51,859 --> 01:07:55,529
y de incitar a la violencia
contra los musulmanes rohinyás,

1134
01:07:55,613 --> 01:07:57,406
provocando asesinatos en masa,

1135
01:07:58,115 --> 01:07:59,867
la quema de pueblos enteros,

1136
01:07:59,950 --> 01:08:03,704
violaciones en masa
y otros crímenes contra la humanidad

1137
01:08:03,788 --> 01:08:08,209
que han provocado que 700 000 rohinyás
tengan que huir del país.

1138
01:08:11,170 --> 01:08:16,550
No es que los propagandistas
no hayan existido antes.

1139
01:08:16,634 --> 01:08:19,762
Es que las plataformas permiten

1140
01:08:19,845 --> 01:08:23,724
difundir historias manipuladoras
con gran facilidad

1141
01:08:23,808 --> 01:08:25,434
y sin mucho dinero.

1142
01:08:25,518 --> 01:08:27,645
Si quiero manipular unas elecciones,

1143
01:08:27,728 --> 01:08:30,564
entro en un grupo conspiranoico
en Facebook

1144
01:08:30,648 --> 01:08:32,233
y encuentro a 100 personas

1145
01:08:32,316 --> 01:08:34,443
que creen que la Tierra es plana

1146
01:08:34,860 --> 01:08:37,780
y creen en la conspiración
del viaje a la Luna

1147
01:08:37,863 --> 01:08:41,450
y puedo decirle a Facebook:
"Dame mil usuarios así".

1148
01:08:42,118 --> 01:08:46,080
Facebook me enviará
miles de usuarios como esos

1149
01:08:46,163 --> 01:08:49,250
a los que puedo soltar
más teorías conspirativas.

1150
01:08:51,168 --> 01:08:52,837
Vendido por 3,4 centavos.

1151
01:08:53,379 --> 01:08:54,922
Nuevo vídeo de EC.

1152
01:08:55,005 --> 01:08:56,132
Otro anuncio listo.

1153
01:08:58,509 --> 01:09:02,054
Los algoritmos
y los políticos manipuladores son expertos

1154
01:09:02,138 --> 01:09:04,056
en saber cómo llegar a nosotros,

1155
01:09:04,140 --> 01:09:08,227
son muy buenos creando bulos
que absorbemos como si fueran realidad

1156
01:09:08,310 --> 01:09:10,813
y confundiéndonos
para creer esas mentiras.

1157
01:09:10,896 --> 01:09:12,606
Cada vez controlamos menos

1158
01:09:12,690 --> 01:09:14,150
quiénes somos y en qué creemos.

1159
01:09:31,417 --> 01:09:32,668
<i>...para elegir bando.</i>

1160
01:09:32,751 --> 01:09:34,879
<i>Hay mentiras por todos lados.</i>

1161
01:09:34,962 --> 01:09:39,967
<i>Para conservar el poder</i>
<i>y que puedan controlarlo todo.</i>

1162
01:09:40,050 --> 01:09:44,555
<i>Pueden controlar nuestras mentes</i>
<i>para mantener sus secretos.</i>

1163
01:09:44,638 --> 01:09:46,390
DUDA DE LA VERDAD

1164
01:09:46,473 --> 01:09:48,517
LOS CCE ADMITEN ENCUBRIR
EL AUTISMO POR VACUNAS

1165
01:09:48,601 --> 01:09:50,895
Imagina que todos creen mentiras.

1166
01:09:50,978 --> 01:09:53,314
LAS VACUNAS NO SON UNIVERSALES
NUESTROS GENES LO PRUEBAN

1167
01:09:53,397 --> 01:09:55,649
Que el Gobierno miente.

1168
01:09:56,317 --> 01:09:58,444
Que todo es una conspiración.

1169
01:09:58,527 --> 01:10:01,197
"No os fiéis de nadie. Odio a los otros".

1170
01:10:01,280 --> 01:10:02,698
Hacia eso vamos.

1171
01:10:02,781 --> 01:10:06,160
Los terremotos políticos en Europa
siguen retumbando,

1172
01:10:06,243 --> 01:10:08,412
esta vez en Italia y España.

1173
01:10:08,495 --> 01:10:11,999
<i>La coalición centrista de Europa</i>
<i>perdió la mayoría,</i>

1174
01:10:12,082 --> 01:10:15,002
<i>mientras la extrema derecha e izquierda</i>
<i>lograron avances.</i>

1175
01:10:17,588 --> 01:10:19,048
CENTRO

1176
01:10:19,757 --> 01:10:20,591
Atrás.

1177
01:10:21,675 --> 01:10:22,509
Vale, vamos.

1178
01:10:28,390 --> 01:10:31,268
<i>Estas cuentas intentaban deliberadamente</i>

1179
01:10:31,352 --> 01:10:33,896
<i>sembrar la discordia política</i>
<i>en Hong Kong.</i>

1180
01:10:38,609 --> 01:10:39,610
Vale, Ben.

1181
01:10:42,863 --> 01:10:45,032
¿Qué se siente al ser un país

1182
01:10:45,115 --> 01:10:48,869
que solo se informa a través de Facebook
y las redes sociales?

1183
01:10:48,953 --> 01:10:50,871
La democracia cayó rápidamente.

1184
01:10:50,955 --> 01:10:51,830
En seis meses.

1185
01:10:51,914 --> 01:10:53,791
<i>Tras el caos en Chicago,</i>

1186
01:10:53,874 --> 01:10:57,044
<i>enfrentamientos</i>
<i>entre manifestantes y partidarios…</i>

1187
01:10:58,003 --> 01:11:01,632
<i>La democracia se enfrenta</i>
<i>a una crisis de confianza.</i>

1188
01:11:01,715 --> 01:11:04,343
Hay un ataque global a la democracia.

1189
01:11:04,426 --> 01:11:05,427
EXTREMO
CENTRO

1190
01:11:05,511 --> 01:11:07,930
Los objetivos son países

1191
01:11:08,013 --> 01:11:09,723
con elecciones democráticas.

1192
01:11:10,641 --> 01:11:12,518
Está pasando a gran escala.

1193
01:11:12,601 --> 01:11:15,562
Por actores estatales,
por millonarios que dicen:

1194
01:11:15,646 --> 01:11:18,524
"Quiero desestabilizar Kenia, Camerún.

1195
01:11:18,607 --> 01:11:20,651
¿Angola? Solo cuesta esto".

1196
01:11:20,734 --> 01:11:23,362
<i>Elecciones extraordinarias en Brasil.</i>

1197
01:11:23,445 --> 01:11:25,823
Con una campaña impulsada
por las redes sociales.

1198
01:11:31,036 --> 01:11:33,956
En la industria tecnológica
hemos creado las herramientas

1199
01:11:34,039 --> 01:11:37,418
para desestabilizar
y erosionar el tejido de la sociedad,

1200
01:11:37,501 --> 01:11:40,254
todos los países a la vez,
en todas partes.

1201
01:11:40,337 --> 01:11:44,508
Ocurre en Alemania, España,
Francia, Brasil, Australia...

1202
01:11:44,591 --> 01:11:47,011
Algunas de las naciones más desarrolladas

1203
01:11:47,386 --> 01:11:49,221
están implosionándose entre sí,

1204
01:11:49,305 --> 01:11:50,931
¿y qué tienen en común?

1205
01:11:51,974 --> 01:11:53,017
Con lo que sabes,

1206
01:11:53,100 --> 01:11:56,312
¿crees que Facebook afectó
las elecciones de 2016?

1207
01:11:56,854 --> 01:11:58,188
Una pregunta difícil.

1208
01:11:58,897 --> 01:11:59,773
A ver...

1209
01:12:00,024 --> 01:12:04,653
La realidad es que había
muchas fuerzas en juego.

1210
01:12:04,737 --> 01:12:07,865
Representantes de Facebook, Twitter
y Google están en Capitol Hill

1211
01:12:07,948 --> 01:12:09,366
para volver a declarar

1212
01:12:09,450 --> 01:12:12,578
sobre la interferencia rusa
en las elecciones de 2016.

1213
01:12:12,661 --> 01:12:17,291
La manipulación por parte de un tercero
no es piratería.

1214
01:12:18,500 --> 01:12:21,462
¿Verdad? Los rusos no piratearon Facebook.

1215
01:12:21,545 --> 01:12:24,965
Lo que hicieron fue usar
las herramientas que Facebook creó

1216
01:12:25,049 --> 01:12:27,843
para anunciantes legítimos
y usuarios legítimos,

1217
01:12:27,926 --> 01:12:30,346
y las aplicaron con un propósito vil.

1218
01:12:31,930 --> 01:12:34,058
Es como una guerra a control remoto.

1219
01:12:34,475 --> 01:12:36,602
Un país puede manipular a otro

1220
01:12:36,685 --> 01:12:39,229
sin invadir sus fronteras físicas.

1221
01:12:39,605 --> 01:12:40,981
<i>Vemos la violencia.</i>

1222
01:12:41,065 --> 01:12:43,317
<i>Empujan un contenedor de basura...</i>

1223
01:12:43,400 --> 01:12:45,736
No se trataba de a quién votar.

1224
01:12:46,362 --> 01:12:50,574
Se trataba de sembrar el caos
y la división en la sociedad.

1225
01:12:50,657 --> 01:12:53,035
<i>Una marcha en la playa de Huntington...</i>

1226
01:12:53,118 --> 01:12:54,870
Se trata de crear dos bandos

1227
01:12:54,953 --> 01:12:56,413
que no se escuchaban,

1228
01:12:56,497 --> 01:12:58,123
que no querían escucharse,

1229
01:12:58,207 --> 01:12:59,875
que no confiaban en el otro.

1230
01:12:59,958 --> 01:13:02,252
<i>El odio quedó al descubierto</i>

1231
01:13:03,295 --> 01:13:05,464
<i>y se transformó en violencia racial.</i>

1232
01:13:05,547 --> 01:13:07,925
TENSIÓN EN VIRGINIA
TRES MUERTOS

1233
01:13:20,145 --> 01:13:20,979
¡Ben!

1234
01:13:21,605 --> 01:13:22,439
¡Cassandra!

1235
01:13:22,898 --> 01:13:23,816
- ¡Cass!
- ¡Ben!

1236
01:13:23,899 --> 01:13:25,484
¡Ven aquí!

1237
01:13:27,486 --> 01:13:31,156
Brazos arriba. De rodillas. Al suelo.

1238
01:13:36,120 --> 01:13:37,204
- Calma.
- ¡Ben!

1239
01:13:37,287 --> 01:13:38,414
¡Eh! ¡Manos arriba!

1240
01:13:39,623 --> 01:13:41,291
Date la vuelta. Al suelo.

1241
01:13:56,807 --> 01:13:59,643
¿Queremos vender este sistema
al mejor postor?

1242
01:14:01,145 --> 01:14:05,399
¿Para que la democracia esté a la venta
y podamos manipular a cualquiera,

1243
01:14:05,482 --> 01:14:08,694
soltar una mentira
y crear guerras culturales?

1244
01:14:09,236 --> 01:14:10,237
¿Queremos eso?

1245
01:14:14,658 --> 01:14:16,326
Somos una nación de gente...

1246
01:14:16,952 --> 01:14:18,620
que ya no se habla.

1247
01:14:20,080 --> 01:14:23,000
Somos una nación de gente
que no habla con otros

1248
01:14:23,083 --> 01:14:25,127
por el candidato que votan.

1249
01:14:25,919 --> 01:14:28,422
Somos una nación de gente
que se ha aislado

1250
01:14:28,505 --> 01:14:30,966
para ver canales
que nos dicen que tenemos razón.

1251
01:14:32,259 --> 01:14:35,888
Mi mensaje es
que el tribalismo nos está arruinando.

1252
01:14:37,556 --> 01:14:39,183
Destruye nuestro país.

1253
01:14:40,267 --> 01:14:43,020
Los adultos cuerdos no pueden actuar así.

1254
01:14:43,103 --> 01:14:45,314
Si todos tienen derecho a sus hechos,

1255
01:14:45,397 --> 01:14:49,359
no hay necesidad de llegar a un acuerdo
ni de que la gente se una.

1256
01:14:49,443 --> 01:14:51,695
No hace falta que la gente interactúe.

1257
01:14:52,321 --> 01:14:56,617
Necesitamos una comprensión común
de la realidad.

1258
01:14:57,242 --> 01:14:58,410
O no somos un país.

1259
01:14:58,911 --> 01:15:02,998
La solución es
construir más herramientas de IA

1260
01:15:03,081 --> 01:15:08,128
que encuentren patrones de gente
usando servicios que nadie usaría.

1261
01:15:08,212 --> 01:15:11,840
Permitimos a los tecnólogos
enmarcar esto como un problema

1262
01:15:11,924 --> 01:15:14,009
que están preparados para resolver.

1263
01:15:15,135 --> 01:15:16,470
Eso es mentira.

1264
01:15:17,679 --> 01:15:20,724
La gente habla de la IA
como si supiera la verdad.

1265
01:15:21,683 --> 01:15:23,769
La IA no resolverá estos problemas.

1266
01:15:24,269 --> 01:15:27,189
La IA no puede
resolver el problema de los bulos.

1267
01:15:28,649 --> 01:15:31,026
Google no tiene la opción de decir:

1268
01:15:31,109 --> 01:15:34,154
"¿Es una conspiración? ¿Es verdad?".

1269
01:15:34,613 --> 01:15:36,240
Porque desconoce la verdad.

1270
01:15:36,823 --> 01:15:40,410
La única verdad que conoce es un clic.

1271
01:15:41,870 --> 01:15:45,123
Si no coincidimos en lo que es verdad

1272
01:15:45,207 --> 01:15:47,584
o en que la verdad existe,

1273
01:15:48,293 --> 01:15:49,294
estamos acabados.

1274
01:15:49,753 --> 01:15:52,089
Este es el problema subyacente,

1275
01:15:52,172 --> 01:15:54,424
porque si no coincidimos
en lo que es verdad,

1276
01:15:55,092 --> 01:15:57,803
no podemos salir de ningún problema.

1277
01:16:05,352 --> 01:16:07,729
Sugiramos que siga
al Terraplanistas F.C.

1278
01:16:07,813 --> 01:16:10,107
No más deportes. No conecta.

1279
01:16:39,928 --> 01:16:42,764
Mucha gente en Silicon Valley
suscribe la teoría

1280
01:16:42,848 --> 01:16:45,225
de que estamos construyendo
un supercerebro global

1281
01:16:45,309 --> 01:16:48,020
y los usuarios
son neuronas intercambiables,

1282
01:16:48,103 --> 01:16:49,563
ninguno es importante.

1283
01:16:50,230 --> 01:16:53,150
Y subyuga a la gente en este extraño papel

1284
01:16:53,233 --> 01:16:56,069
donde uno es
un pequeño elemento informático

1285
01:16:56,153 --> 01:16:58,947
que programamos
mediante manipulación conductual

1286
01:16:59,031 --> 01:17:02,367
al servicio de este cerebro gigante,
y tú no importas.

1287
01:17:02,451 --> 01:17:06,455
No te pagarán, no te reconocerán,
no tendrás autodeterminación.

1288
01:17:06,538 --> 01:17:09,374
Te manipularemos porque eres un nodo,

1289
01:17:09,458 --> 01:17:12,336
hay que programarte,
porque es lo que se hace con los nodos.

1290
01:17:20,093 --> 01:17:21,094
Madre mía.

1291
01:17:21,428 --> 01:17:25,390
Cuando piensas en la tecnología
y en que es una amenaza existencial,

1292
01:17:25,474 --> 01:17:28,060
es un gran reclamo y...

1293
01:17:29,603 --> 01:17:33,982
es fácil pensar: "Estoy con el móvil...

1294
01:17:35,609 --> 01:17:39,196
navegando, haciendo clic, usándolo.
¿Dónde está la amenaza?

1295
01:17:40,280 --> 01:17:41,615
Hay un superordenador

1296
01:17:41,698 --> 01:17:43,950
al otro lado apuntando a mi cerebro

1297
01:17:44,409 --> 01:17:47,537
que me hizo ver un vídeo.
¿Dónde está la amenaza?".

1298
01:17:54,252 --> 01:17:59,341
No se trata de que la tecnología sea
la amenaza existencial.

1299
01:18:02,386 --> 01:18:04,346
VISTA SOBRE TECNOLOGÍA PERSUASIVA

1300
01:18:04,429 --> 01:18:08,850
Es la capacidad de la tecnología
para sacar lo peor de la sociedad,

1301
01:18:09,559 --> 01:18:13,522
y lo peor de la sociedad es
la amenaza existencial.

1302
01:18:13,605 --> 01:18:15,899
SENADO DE LOS ESTADOS UNIDOS

1303
01:18:18,819 --> 01:18:23,073
Si la tecnología crea un caos masivo,

1304
01:18:23,156 --> 01:18:24,533
indignación, incivismo,

1305
01:18:24,616 --> 01:18:26,326
desconfianza,

1306
01:18:27,452 --> 01:18:30,622
soledad, alienación, más polarización,

1307
01:18:30,706 --> 01:18:33,333
más pirateo electoral, más populismo,

1308
01:18:33,917 --> 01:18:36,962
distracción e incapacidad
para centrarse en los problemas reales...

1309
01:18:37,963 --> 01:18:39,214
es solo sociedad.

1310
01:18:40,340 --> 01:18:46,388
Y ahora la sociedad es incapaz de curarse

1311
01:18:46,471 --> 01:18:48,515
y se convierte en un caos.

1312
01:18:51,977 --> 01:18:54,938
Afecta a todos,
incluso si no usas estos productos.

1313
01:18:55,021 --> 01:18:57,524
Son Frankensteins digitales

1314
01:18:57,607 --> 01:19:00,068
que transforman el mundo a su imagen,

1315
01:19:00,152 --> 01:19:04,489
ya sea la salud mental infantil,
la política o nuestro discurso político,

1316
01:19:04,573 --> 01:19:07,492
sin responsabilizarse
por dominar la vida pública.

1317
01:19:07,576 --> 01:19:10,537
- Vuelve a...
- ¿Y quién es responsable?

1318
01:19:10,620 --> 01:19:13,582
Debemos hacer
que las plataformas sean responsables

1319
01:19:13,665 --> 01:19:17,794
cuando controlen la publicidad electoral,
que protejan las elecciones.

1320
01:19:17,878 --> 01:19:20,380
Cuando controlan los dibujos infantiles,

1321
01:19:20,464 --> 01:19:22,716
son responsables del contenido.

1322
01:19:23,717 --> 01:19:27,929
La carrera por llamar la atención
no va a desaparecer.

1323
01:19:28,388 --> 01:19:31,850
La tecnología se integrará más
en nuestras vidas, no menos.

1324
01:19:31,933 --> 01:19:34,895
La IA predecirá mejor lo que nos engancha,

1325
01:19:34,978 --> 01:19:37,105
no peor.

1326
01:19:38,940 --> 01:19:42,027
Tengo 62 años,

1327
01:19:42,110 --> 01:19:45,155
y envejezco conforme hablamos,

1328
01:19:45,238 --> 01:19:47,365
pero les diré que...

1329
01:19:48,700 --> 01:19:52,370
seguro que voy a morir
y estaré agradecido

1330
01:19:52,454 --> 01:19:54,414
cuando esto llegue a buen puerto.

1331
01:19:54,790 --> 01:19:59,586
Porque me aterroriza profundamente.

1332
01:20:00,921 --> 01:20:03,048
¿Piensan lo mismo?

1333
01:20:03,548 --> 01:20:06,968
¿O estoy exagerando
ante una situación que no conozco bien?

1334
01:20:09,638 --> 01:20:11,598
¿Qué es lo que más te preocupaba?

1335
01:20:15,519 --> 01:20:18,480
A corto plazo...

1336
01:20:19,523 --> 01:20:20,524
la guerra civil.

1337
01:20:24,444 --> 01:20:29,908
Si las cosas siguen
como hasta ahora otros 20 años...

1338
01:20:31,117 --> 01:20:34,579
destruiremos la civilización
por la ignorancia deliberada.

1339
01:20:34,663 --> 01:20:37,958
No superaremos el reto
del cambio climático.

1340
01:20:38,041 --> 01:20:42,087
Probablemente degrademos
las democracias mundiales

1341
01:20:42,170 --> 01:20:46,132
para que caigan
en una extraña disfunción autocrática.

1342
01:20:46,216 --> 01:20:48,426
Arruinaremos la economía global.

1343
01:20:49,177 --> 01:20:52,264
Probablemente no sobrevivamos.

1344
01:20:52,347 --> 01:20:54,808
Lo veo como existencial.

1345
01:21:02,524 --> 01:21:04,985
¿Es esta la última generación

1346
01:21:05,068 --> 01:21:08,488
que sabrá cómo era
antes de que ocurriera esta ilusión?

1347
01:21:11,074 --> 01:21:14,578
¿Cómo te despiertas del <i>Matrix</i>
si no sabes que estás en él?

1348
01:21:17,747 --> 01:21:23,253
"YA SEA UTOPÍA U OLVIDO
SERÁ UNA CARRERA DE RELEVOS

1349
01:21:23,336 --> 01:21:27,299
HASTA EL ÚLTIMO MOMENTO...".

1350
01:21:27,382 --> 01:21:30,635
Mucho de lo que decimos parece...

1351
01:21:31,511 --> 01:21:33,597
una fatalidad unilateral.

1352
01:21:33,680 --> 01:21:36,808
En plan: "Dios, la tecnología
está arruinando el mundo

1353
01:21:36,892 --> 01:21:38,059
y a los niños",

1354
01:21:38,143 --> 01:21:39,269
y... no.

1355
01:21:40,228 --> 01:21:45,567
Es confuso porque es utopía y distopía.

1356
01:21:45,942 --> 01:21:50,447
Podría presionar un botón de mi móvil
y un coche aparece en 30 segundos

1357
01:21:50,530 --> 01:21:52,699
y puedo ir adonde necesite.

1358
01:21:52,782 --> 01:21:55,660
Eso es magia. Es increíble.

1359
01:21:56,161 --> 01:21:57,662
Al hacer el botón "Me gusta",

1360
01:21:57,746 --> 01:22:01,499
la motivación era: "¿Podemos difundir
positividad y amor?".

1361
01:22:01,583 --> 01:22:05,003
La idea de que hoy
los adolescentes se deprimirían

1362
01:22:05,086 --> 01:22:06,379
si no tienen suficientes

1363
01:22:06,463 --> 01:22:09,883
o que podría llevar a la polarización
política era inimaginable.

1364
01:22:09,966 --> 01:22:12,135
No creo que decidieran ser malvados.

1365
01:22:13,511 --> 01:22:15,764
El problema es el modelo de negocio.

1366
01:22:15,847 --> 01:22:20,226
Podrías cerrar el servicio
y destruir lo que sea,

1367
01:22:20,310 --> 01:22:24,522
20 000 millones de dólares
de valor accionarial y que te denuncien...

1368
01:22:24,606 --> 01:22:27,108
Pero no puedes volver atrás en el tiempo.

1369
01:22:27,192 --> 01:22:30,403
Puedes hacer algunos retoques,
pero al final,

1370
01:22:30,487 --> 01:22:34,032
tienes que aumentar los ingresos
y el uso cada trimestre.

1371
01:22:34,658 --> 01:22:37,535
Cuanto más grande sea,
más costará cambiarlo.

1372
01:22:38,495 --> 01:22:43,458
Lo que veo es un grupo de personas
atrapadas por un modelo de negocio,

1373
01:22:43,541 --> 01:22:46,169
un incentivo económico
y la presión de los accionistas

1374
01:22:46,252 --> 01:22:48,922
que hace casi imposible cambiarlo.

1375
01:22:49,005 --> 01:22:53,176
Debemos aceptar que está bien
que las empresas busquen ganar dinero.

1376
01:22:53,259 --> 01:22:56,888
Lo que está mal es
que no haya normas, reglas ni competencia,

1377
01:22:56,972 --> 01:23:00,850
y las empresas actúen
como gobiernos de facto.

1378
01:23:00,934 --> 01:23:03,353
Y digan: "Podemos autorregularnos".

1379
01:23:03,436 --> 01:23:05,981
Es solo una mentira. Es ridículo.

1380
01:23:06,064 --> 01:23:09,150
Los estímulos financieros son
la base del mundo,

1381
01:23:09,234 --> 01:23:15,573
así que cualquier solución
a este problema tiene que realinearlos.

1382
01:23:16,074 --> 01:23:18,785
No hay razón fiscal para que cambien.

1383
01:23:18,868 --> 01:23:21,329
Y por eso necesitamos una reglamentación.

1384
01:23:21,413 --> 01:23:24,290
Las compañías telefónicas tienen
datos nuestros

1385
01:23:24,374 --> 01:23:27,544
y hay leyes que aseguran
que hagan lo correcto.

1386
01:23:27,627 --> 01:23:31,506
Casi no tenemos leyes
sobre privacidad digital, por ejemplo.

1387
01:23:31,589 --> 01:23:34,426
Podríamos gravar la recogida de datos.

1388
01:23:34,509 --> 01:23:37,554
De la misma forma
que pagas la factura del agua

1389
01:23:37,637 --> 01:23:39,723
controlando la cantidad que usas,

1390
01:23:39,806 --> 01:23:43,226
gravas a las empresas
por los activos de datos que tienen.

1391
01:23:43,309 --> 01:23:44,769
Les da una razón fiscal

1392
01:23:44,853 --> 01:23:47,856
para no obtener
todos los datos del planeta.

1393
01:23:47,939 --> 01:23:50,567
La ley va muy por detrás de estas cosas,

1394
01:23:50,650 --> 01:23:55,864
pero lo que sé es que la situación actual
no existe para proteger a los usuarios,

1395
01:23:55,947 --> 01:23:58,700
sino para proteger
los derechos y privilegios

1396
01:23:58,783 --> 01:24:01,453
de estas empresas gigantescas y ricas.

1397
01:24:02,245 --> 01:24:05,832
¿Siempre vamos a ceder
ante los más ricos y poderosos?

1398
01:24:05,915 --> 01:24:07,417
¿O vamos a decir:

1399
01:24:07,959 --> 01:24:12,047
"Hay veces que hay un interés nacional,

1400
01:24:12,130 --> 01:24:15,592
a veces los intereses de la gente,
de los consumidores,

1401
01:24:15,675 --> 01:24:17,385
son más importantes

1402
01:24:18,011 --> 01:24:21,473
que los beneficios de alguien
que ya es multimillonario"?

1403
01:24:21,890 --> 01:24:26,603
Estos mercados socavan
la democracia y la libertad

1404
01:24:26,686 --> 01:24:28,521
y deberían ser prohibidos.

1405
01:24:29,147 --> 01:24:31,816
No es una propuesta radical.

1406
01:24:31,900 --> 01:24:34,194
Hay otros mercados que prohibimos.

1407
01:24:34,277 --> 01:24:36,988
Prohibimos los mercados
de órganos humanos.

1408
01:24:37,072 --> 01:24:39,491
Prohibimos los mercados de esclavos.

1409
01:24:39,949 --> 01:24:44,037
Porque tienen consecuencias destructivas.

1410
01:24:44,537 --> 01:24:45,830
Vivimos en un mundo

1411
01:24:45,914 --> 01:24:50,001
en el que un árbol vale más,
económicamente, muerto que vivo,

1412
01:24:50,085 --> 01:24:53,838
en un mundo en el que una ballena
vale más muerta que viva.

1413
01:24:53,922 --> 01:24:58,134
Mientras la economía funcione así
y las corporaciones no se regulen,

1414
01:24:58,218 --> 01:25:00,678
van a seguir destruyendo árboles,

1415
01:25:00,762 --> 01:25:01,763
matando ballenas

1416
01:25:01,846 --> 01:25:06,101
explotando la tierra
y sacando petróleo del suelo,

1417
01:25:06,184 --> 01:25:08,436
aunque sepamos que destruye el planeta

1418
01:25:08,520 --> 01:25:12,148
y que dejará un mundo peor
para las generaciones futuras.

1419
01:25:12,232 --> 01:25:13,858
Piensan a corto plazo

1420
01:25:13,942 --> 01:25:16,694
por la religión del lucro a toda costa,

1421
01:25:16,778 --> 01:25:20,156
como si el que cada empresa actúe
en su propio interés

1422
01:25:20,240 --> 01:25:21,950
produzca el mejor resultado.

1423
01:25:22,033 --> 01:25:24,494
Esto ha afectado al medio ambiente.

1424
01:25:24,577 --> 01:25:29,207
Lo qué es aterrador
y nos hará despertar como civilización

1425
01:25:29,290 --> 01:25:31,709
sobre lo errónea que ha sido esta teoría

1426
01:25:31,793 --> 01:25:35,004
es ver que ahora somos el árbol,
somos la ballena.

1427
01:25:35,088 --> 01:25:37,048
Pueden explotar nuestra atención.

1428
01:25:37,132 --> 01:25:41,594
Somos más rentables para una empresa
si pasamos tiempo mirando una pantalla,

1429
01:25:41,678 --> 01:25:42,971
mirando un anuncio,

1430
01:25:43,054 --> 01:25:45,890
que si aprovechamos ese tiempo.

1431
01:25:45,974 --> 01:25:47,559
Y vemos los resultados.

1432
01:25:47,642 --> 01:25:50,645
Vemos empresas que usan
una IA poderosa

1433
01:25:50,728 --> 01:25:53,648
para engañarnos y ver
cómo captar nuestra atención

1434
01:25:53,731 --> 01:25:55,358
para que veamos lo que quieren,

1435
01:25:55,441 --> 01:25:59,237
en vez de lo que encaja
con nuestras metas, valores y vidas.

1436
01:26:02,991 --> 01:26:04,450
ORADOR PRINCIPAL DE HOY

1437
01:26:05,535 --> 01:26:06,911
Para mí un ordenador es

1438
01:26:06,995 --> 01:26:10,290
la herramienta más extraordinaria
que hemos inventado.

1439
01:26:11,124 --> 01:26:13,877
Es como una bicicleta
para nuestras mentes.

1440
01:26:15,628 --> 01:26:20,091
Silicon Valley empezó
por la idea de la tecnología humana.

1441
01:26:21,050 --> 01:26:25,722
Y lo hemos olvidado
porque se convirtió en algo guay,

1442
01:26:25,805 --> 01:26:27,265
en lugar de lo correcto.

1443
01:26:27,348 --> 01:26:29,726
Internet era un sitio raro, de locos.

1444
01:26:29,809 --> 01:26:31,394
Era algo experimental.

1445
01:26:31,477 --> 01:26:34,731
Ha habido cosas creativas en Internet
y aún las hay,

1446
01:26:34,814 --> 01:26:38,610
pero parece un centro comercial gigante.

1447
01:26:38,693 --> 01:26:44,157
Para mí es:
"Dios, tiene que haber más que eso".

1448
01:26:46,743 --> 01:26:48,411
Supongo que soy optimista.

1449
01:26:48,494 --> 01:26:52,040
Porque podemos cambiar
el significado de las redes sociales.

1450
01:26:54,083 --> 01:26:57,921
El funcionamiento de la tecnología
no es una ley de la física.

1451
01:26:58,004 --> 01:27:02,175
Son decisiones
que los humanos como yo hemos tomado.

1452
01:27:02,759 --> 01:27:05,345
Y podemos cambiar esas tecnologías.

1453
01:27:06,971 --> 01:27:09,974
La pregunta es
si estamos dispuestos a admitir

1454
01:27:10,475 --> 01:27:15,438
que esos malos resultados vienen
como producto de nuestro trabajo.

1455
01:27:20,902 --> 01:27:24,864
Que hemos construido esto
y tenemos la responsabilidad de cambiarlo.

1456
01:27:37,210 --> 01:27:42,298
El modelo de extracción de atención no es
como queremos tratar a los humanos.

1457
01:27:46,094 --> 01:27:48,137
¿Soy yo o...?

1458
01:27:49,847 --> 01:27:50,848
Qué pringado.

1459
01:27:51,432 --> 01:27:53,226
El tejido de una sociedad sana

1460
01:27:53,309 --> 01:27:56,145
depende de que eliminemos
este modelo de negocio.

1461
01:28:04,529 --> 01:28:07,907
Podemos exigir que estos productos
se diseñen humanamente.

1462
01:28:09,409 --> 01:28:13,121
Podemos exigir que no nos traten
como un recurso extraíble.

1463
01:28:15,081 --> 01:28:18,376
La intención debe ser:
"¿Cómo podemos mejorar el mundo?".

1464
01:28:20,461 --> 01:28:23,798
A lo largo de la historia,
cada vez que algo ha mejorado

1465
01:28:23,881 --> 01:28:28,428
es porque alguien ha dicho:
"Esto es ridículo. Podemos mejorarlo".

1466
01:28:29,178 --> 01:28:32,557
Son las críticas
las que impulsan la mejora.

1467
01:28:32,890 --> 01:28:35,393
Los críticos son
los verdaderos optimistas.

1468
01:28:38,313 --> 01:28:39,147
Hola.

1469
01:28:46,195 --> 01:28:47,697
Parece una locura, ¿no?

1470
01:28:47,780 --> 01:28:51,534
Es que la forma fundamental
en que está diseñado...

1471
01:28:52,994 --> 01:28:54,704
no va en una buena dirección.

1472
01:28:55,246 --> 01:28:56,873
Nada de ello.

1473
01:28:56,956 --> 01:29:00,626
Parece una locura decir
que tenemos que cambiar todo eso,

1474
01:29:01,169 --> 01:29:02,670
pero es necesario.

1475
01:29:04,255 --> 01:29:05,923
¿Crees que lo conseguiremos?

1476
01:29:07,091 --> 01:29:08,301
Tenemos que hacerlo.

1477
01:29:21,314 --> 01:29:24,942
Pareces muy optimista.

1478
01:29:26,194 --> 01:29:27,195
¿Eso parezco?

1479
01:29:27,653 --> 01:29:30,114
Sí, bueno... Es increíble que lo digas

1480
01:29:30,198 --> 01:29:33,409
porque pienso:
"¿En serio? Vamos hacia la distopía.

1481
01:29:33,493 --> 01:29:37,830
Vamos por la vía rápida
y necesitaremos un milagro para evitarlo".

1482
01:29:37,914 --> 01:29:40,291
Y ese milagro es la voluntad colectiva.

1483
01:29:41,000 --> 01:29:44,587
Soy optimista
sobre que lo vamos a solucionar,

1484
01:29:44,670 --> 01:29:47,048
pero creo que llevará mucho tiempo.

1485
01:29:47,131 --> 01:29:50,385
Porque no todos reconocen
que esto es un problema.

1486
01:29:50,468 --> 01:29:55,890
Uno de los grandes fallos tecnológicos

1487
01:29:55,973 --> 01:29:58,643
es la falta de liderazgo,

1488
01:29:58,726 --> 01:30:01,979
la falta de gente que sea sincera

1489
01:30:02,063 --> 01:30:05,900
no solo sobre lo que salió bien,
sino sobre lo que no es perfecto

1490
01:30:05,983 --> 01:30:08,194
para que alguien pueda arreglarlo.

1491
01:30:08,277 --> 01:30:10,321
A fin de cuentas,

1492
01:30:10,405 --> 01:30:14,617
la cosa no va a cambiar
hasta que haya mucha presión pública.

1493
01:30:14,700 --> 01:30:18,329
Al tener estas conversaciones
y expresar tu opinión,

1494
01:30:18,413 --> 01:30:21,082
a veces a través de estas tecnologías,

1495
01:30:21,165 --> 01:30:24,252
podemos cambiar la tendencia
y el discurso.

1496
01:30:24,335 --> 01:30:27,004
Sonará raro,
pero es mi mundo, mi comunidad.

1497
01:30:27,088 --> 01:30:29,590
No guardo rencor hacia Google o Facebook.

1498
01:30:29,674 --> 01:30:32,885
Solo quiero reformarlos
para que no destruyan el mundo.

1499
01:30:32,969 --> 01:30:35,513
He desinstalado un montón de aplicaciones

1500
01:30:35,596 --> 01:30:37,723
que me hacían perder el tiempo.

1501
01:30:37,807 --> 01:30:42,478
Las de redes sociales, las de noticias,
y he desactivado las notificaciones

1502
01:30:42,603 --> 01:30:45,815
sobre cualquier cosa que vibrara
con información

1503
01:30:45,898 --> 01:30:48,943
que no fuera oportuna
e importante para mí.

1504
01:30:49,026 --> 01:30:51,279
Igual que no llevo
galletas en el bolsillo.

1505
01:30:51,362 --> 01:30:54,407
- Reduce los avisos.
- Desactiva las notificaciones.

1506
01:30:54,532 --> 01:30:55,950
Desactiva las notificaciones.

1507
01:30:56,033 --> 01:30:58,536
Ya no uso Google, uso Qwant,

1508
01:30:58,619 --> 01:31:01,497
que no almacena tu historial de búsqueda.

1509
01:31:01,581 --> 01:31:04,500
No aceptes un vídeo
que te recomienden en YouTube.

1510
01:31:04,584 --> 01:31:07,003
Siempre elige. Es otra forma de luchar.

1511
01:31:07,086 --> 01:31:12,133
Hay un montón de extensiones de Chrome
que eliminan las recomendaciones.

1512
01:31:12,216 --> 01:31:15,636
Mola que recomiendes algo
para deshacer lo que has hecho.

1513
01:31:15,720 --> 01:31:16,554
Sí.

1514
01:31:16,929 --> 01:31:21,642
Antes de compartir, verifica la fuente,
haz esa búsqueda extra.

1515
01:31:21,726 --> 01:31:25,104
Si parece diseñado
para activar tus botones emocionales,

1516
01:31:25,188 --> 01:31:26,314
lo será.

1517
01:31:26,397 --> 01:31:29,025
Básicamente, votas con tus clics.

1518
01:31:29,108 --> 01:31:30,359
Si picas en el cebo,

1519
01:31:30,443 --> 01:31:33,779
creas un incentivo financiero
que perpetúa este sistema.

1520
01:31:33,863 --> 01:31:36,949
Asegúrate de obtener
mucha información distinta

1521
01:31:37,033 --> 01:31:37,909
en tu vida.

1522
01:31:37,992 --> 01:31:40,995
Sigo a gente en Twitter
con la que no coincido,

1523
01:31:41,078 --> 01:31:44,207
porque quiero ver
diferentes puntos de vista.

1524
01:31:44,665 --> 01:31:49,045
Mucha gente de la tecnología
no les da estos dispositivos a sus hijos.

1525
01:31:49,128 --> 01:31:51,088
Mis hijos no usan redes sociales.

1526
01:31:51,964 --> 01:31:53,549
¿Es una regla o es...?

1527
01:31:53,633 --> 01:31:54,509
Es una regla.

1528
01:31:55,092 --> 01:31:57,845
Somos cuidadosos con eso.

1529
01:31:57,929 --> 01:31:59,222
Unos fanáticos.

1530
01:31:59,305 --> 01:32:05,603
Y no dejamos que nuestros hijos estén
delante de la pantalla.

1531
01:32:05,686 --> 01:32:08,564
Tengo tres reglas simples

1532
01:32:08,648 --> 01:32:12,610
que facilitan la vida y que están
justificadas por la investigación.

1533
01:32:12,693 --> 01:32:17,281
La primera es: nada de dispositivos
en el dormitorio a determinada hora.

1534
01:32:17,365 --> 01:32:20,535
Media hora antes de acostarse,
fuera dispositivos.

1535
01:32:20,618 --> 01:32:24,038
La segunda es:
nada de redes sociales hasta el instituto.

1536
01:32:24,121 --> 01:32:26,374
Creo que debería ser a los 16 años.

1537
01:32:26,457 --> 01:32:28,960
La secundaria ya es difícil.
Déjalas para el instituto.

1538
01:32:29,043 --> 01:32:32,964
Y la tercera es:
administrar el tiempo con tu hijo.

1539
01:32:33,047 --> 01:32:34,757
Si hablas con ellos y dices:

1540
01:32:34,840 --> 01:32:37,927
"¿Cuántas horas al día
quieres usar tu dispositivo,

1541
01:32:38,010 --> 01:32:41,597
¿cuál es una buena cantidad?",
suelen decir algo razonable.

1542
01:32:42,056 --> 01:32:44,642
Sé perfectamente

1543
01:32:44,725 --> 01:32:48,563
que no voy a hacer que todos borren
sus cuentas de redes sociales,

1544
01:32:48,646 --> 01:32:50,439
pero algunos sí,

1545
01:32:50,523 --> 01:32:54,402
y conseguir que algunas personas
borren sus cuentas importa mucho,

1546
01:32:54,485 --> 01:32:58,406
y el motivo es que crea el espacio
para una conversación,

1547
01:32:58,489 --> 01:33:00,908
porque quiero que haya suficiente gente

1548
01:33:00,992 --> 01:33:05,204
que esté libre de manipulación
para tener una conversación social

1549
01:33:05,288 --> 01:33:10,126
que no esté limitada por la manipulación.
¡Hacedlo! Salid del sistema.

1550
01:33:10,209 --> 01:33:12,503
Borradlas. Fuera estupideces.

1551
01:33:13,546 --> 01:33:16,507
El mundo es precioso.
Fuera se está genial.

1552
01:33:18,467 --> 01:33:21,887
¡SÍGUENOS EN LAS REDES SOCIALES!
ES BROMA.

1553
01:33:21,971 --> 01:33:27,476
HABLEMOS DE ARREGLARLO.
THESOCIALDILEMMA.COM

1554
01:33:32,064 --> 01:33:34,609
Subtítulos: Carlos Aparicio



