1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
La inteligencia artificial me impresiona.

4
00:00:28,361 --> 00:00:31,489
Vale, están formando un círculo.
Buena formación.

5
00:00:33,116 --> 00:00:36,703
La IA tiene potencial
para eliminar la pobreza,

6
00:00:36,786 --> 00:00:38,705
crear nuevas medicinas

7
00:00:39,330 --> 00:00:41,583
y hacer que el mundo sea más pacífico.

8
00:00:46,087 --> 00:00:46,921
Bien hecho.

9
00:00:49,883 --> 00:00:53,428
Pero se corren
muchos riesgos en el proceso.

10
00:01:04,773 --> 00:01:09,611
Con la inteligencia artificial,
estamos creando una inteligencia no humana

11
00:01:09,694 --> 00:01:11,863
que es muy impredecible.

12
00:01:14,407 --> 00:01:16,493
A medida que se vuelve más potente,

13
00:01:16,576 --> 00:01:19,746
¿dónde trazamos el límite con la IA

14
00:01:19,829 --> 00:01:22,665
en lo que a su función se refiere?

15
00:01:25,001 --> 00:01:28,505
Para hablar de esto, lo mejor es empezar

16
00:01:28,588 --> 00:01:31,049
por las aplicaciones militares.

17
00:01:34,010 --> 00:01:38,890
El campo de batalla se ha convertido
en el campo del software y del hardware.

18
00:01:41,059 --> 00:01:42,936
Objetivo adquirido.

19
00:01:43,019 --> 00:01:46,022
Y los ejércitos
se apresuran a desarrollar la IA

20
00:01:46,106 --> 00:01:48,399
antes que sus adversarios.

21
00:01:49,526 --> 00:01:50,360
Estoy muerto.

22
00:01:53,780 --> 00:01:55,782
Estamos avanzando hacia un mundo

23
00:01:55,865 --> 00:01:58,326
donde no solo los grandes ejércitos,

24
00:01:58,409 --> 00:02:00,328
sino actores no estatales,

25
00:02:01,371 --> 00:02:02,997
empresas privadas

26
00:02:03,081 --> 00:02:06,042
o incluso nuestra comisaría
al final de la calle

27
00:02:06,543 --> 00:02:10,046
podrían usar estas armas
que pueden matar de forma autónoma.

28
00:02:12,006 --> 00:02:17,303
¿Vamos a dejar que los algoritmos,
los programas decidan si matar a alguien?

29
00:02:18,638 --> 00:02:21,516
Es una cuestión vital de nuestro tiempo.

30
00:02:23,935 --> 00:02:26,354
Y, si no se usa con prudencia,

31
00:02:26,437 --> 00:02:30,275
supone un gran riesgo
para todas las personas del planeta.

32
00:02:41,828 --> 00:02:44,914
LO DESCONOCIDO

33
00:02:46,666 --> 00:02:50,086
LOS ROBOTS ASESINOS

34
00:03:28,291 --> 00:03:30,168
Buen trabajo, gente.

35
00:03:59,948 --> 00:04:02,200
Tiene un objetivo más amplio.

36
00:04:02,283 --> 00:04:03,117
¿En serio?

37
00:04:03,201 --> 00:04:04,786
Se ven muchos más datos.

38
00:04:05,286 --> 00:04:06,287
Qué guay.

39
00:04:07,538 --> 00:04:11,209
En Shield AI,
estamos construyendo un piloto de IA,

40
00:04:11,292 --> 00:04:14,879
que utiliza tecnología
de inteligencia artificial autónoma,

41
00:04:14,963 --> 00:04:16,631
para ponerlo en un avión.

42
00:04:19,300 --> 00:04:21,719
Cuando hablamos de un piloto de IA,

43
00:04:21,803 --> 00:04:25,139
pensamos en darle
a un avión un mayor nivel de autonomía.

44
00:04:25,223 --> 00:04:27,850
Resolverán problemas por sí solos.

45
00:04:29,602 --> 00:04:32,355
Nova es un cuadricóptero autónomo

46
00:04:32,438 --> 00:04:35,942
que explora edificios
y estructuras subterráneas

47
00:04:36,859 --> 00:04:41,322
antes de que entren los soldados.
Así no entrarán a ciegas.

48
00:04:41,990 --> 00:04:45,618
Se notan muchas mejoras
desde la última vez que lo vimos.

49
00:04:45,702 --> 00:04:49,747
Estamos probando los cambios
en la exploración piso por piso.

50
00:04:50,331 --> 00:04:53,584
Termina la planta entera
antes de pasar a la siguiente.

51
00:04:54,294 --> 00:04:56,796
- Increíble.
- Hemos hecho algunos cambios.

52
00:04:56,879 --> 00:04:58,548
Mucha gente me pregunta

53
00:04:58,631 --> 00:05:02,510
por qué la IA es una baza importante

54
00:05:02,593 --> 00:05:06,973
y pienso en las misiones
en las que he participado.

55
00:05:09,142 --> 00:05:10,977
Estuve siete años en la Marina.

56
00:05:11,561 --> 00:05:15,273
Soy exmiembro de la Marina.
Me mandaron dos veces a Afganistán

57
00:05:15,356 --> 00:05:17,191
y una vez al Pacífico.

58
00:05:18,026 --> 00:05:22,947
A veces teníamos que despejar
150 recintos o edificios al día.

59
00:05:30,997 --> 00:05:34,250
Una de las aplicaciones básicas
es el combate cuerpo a cuerpo.

60
00:05:35,293 --> 00:05:39,172
En los edificios,
hay tiroteos a muy corta distancia.

61
00:05:41,466 --> 00:05:42,967
Te disparan.

62
00:05:43,468 --> 00:05:46,471
Es posible que haya artefactos explosivos.

63
00:05:49,015 --> 00:05:55,229
Es lo más peligroso que puede hacer
un miembro de las fuerzas especiales

64
00:05:55,313 --> 00:05:58,358
o de la infantería en una zona de combate.

65
00:05:58,441 --> 00:05:59,275
Sin excepción.

66
00:06:12,497 --> 00:06:16,250
Siempre estaré agradecido
por el tiempo que pasé en la Marina.

67
00:06:17,168 --> 00:06:20,338
Hay una serie de momentos y de recuerdos

68
00:06:20,421 --> 00:06:24,592
con los que me emociono
cuando pienso en ellos.

69
00:06:28,346 --> 00:06:32,725
Lo de que la libertad cuesta es un cliché,
pero lo creo al 100 %.

70
00:06:33,601 --> 00:06:37,021
Lo he experimentado
y requiere mucho sacrificio.

71
00:06:38,022 --> 00:06:38,856
Lo siento.

72
00:06:41,109 --> 00:06:44,570
Cuando le pasa
algo malo a uno de tus compañeros,

73
00:06:44,654 --> 00:06:46,614
ya sea que lo hieren o lo matan,

74
00:06:47,490 --> 00:06:49,700
es algo muy trágico.

75
00:06:49,784 --> 00:06:52,912
Teniendo en cuenta
el trabajo al que nos dedicamos,

76
00:06:52,995 --> 00:06:58,835
me motiva poder reducir el número de veces

77
00:06:58,918 --> 00:07:00,336
que eso vuelve a pasar.

78
00:07:07,176 --> 00:07:11,556
A finales de la década de 2000,
el Ministerio de Defensa abrió los ojos

79
00:07:11,639 --> 00:07:15,351
a lo que podría llamarse
la revolución robótica accidental.

80
00:07:15,893 --> 00:07:19,564
Desplegamos miles de robots
en Irak y en Afganistán.

81
00:07:21,482 --> 00:07:26,404
Cuando el Gobierno de Obama me pidió
que fuera secretario adjunto de Defensa,

82
00:07:26,904 --> 00:07:31,117
estaba cambiando la forma
en que se libraba la guerra.

83
00:07:32,452 --> 00:07:36,330
Se usaron robots
donde antaño se habría usado gente.

84
00:07:37,999 --> 00:07:40,376
Los primeros sistemas
se controlaban a distancia.

85
00:07:40,460 --> 00:07:45,173
Lo controlaba un humano,
como si fuera un coche teledirigido.

86
00:07:46,632 --> 00:07:51,512
Empezaron a usarse
con los artefactos explosivos improvisados

87
00:07:52,013 --> 00:07:54,807
y, si la bomba explotaba,
el robot explotaba.

88
00:07:57,393 --> 00:08:00,396
Decías: "Qué rollo.
Vale, saca el otro robot".

89
00:08:02,231 --> 00:08:04,484
Se usó el dron Predator en Afganistán.

90
00:08:05,276 --> 00:08:09,739
Se convirtió en una herramienta muy útil
para llevar a cabo ataques aéreos.

91
00:08:13,117 --> 00:08:16,829
Los estrategas militares
empezaron a preguntarse:

92
00:08:16,913 --> 00:08:20,791
"¿Para qué más se pueden usar?".
¿Y adónde nos iba a llevar esto?

93
00:08:20,875 --> 00:08:24,170
Un tema recurrente
era una mayor autonomía.

94
00:08:26,506 --> 00:08:30,635
Un arma autónoma es aquella
que toma decisiones por sí sola,

95
00:08:30,718 --> 00:08:33,304
con poca o ninguna intervención humana.

96
00:08:33,387 --> 00:08:37,558
Tiene una capacidad independiente
y es autodirigido.

97
00:08:38,434 --> 00:08:41,604
Que pueda matar
depende de si está armado o no.

98
00:08:43,314 --> 00:08:47,026
Cuando tu sistema
tiene cada vez más autonomía,

99
00:08:47,109 --> 00:08:49,779
todo empieza a moverse a mayor velocidad.

100
00:08:51,989 --> 00:08:56,869
Y, cuando operas
a un ritmo más rápido que tus adversarios,

101
00:08:57,453 --> 00:09:01,165
supone una ventaja extraordinaria
en el campo de batalla.

102
00:09:03,960 --> 00:09:06,254
En cuanto a la autonomía, nos centramos

103
00:09:07,255 --> 00:09:09,966
en sistemas
de inteligencia muy resistentes.

104
00:09:12,051 --> 00:09:15,304
Sistemas que leen
y reaccionan en función de su entorno

105
00:09:15,805 --> 00:09:19,642
y que deciden cómo maniobrar en ese mundo.

106
00:09:24,981 --> 00:09:29,193
La instalación en la que estamos
se construyó como un estudio de cine

107
00:09:29,277 --> 00:09:30,611
que se reformó

108
00:09:30,695 --> 00:09:34,156
para crear entornos
de entrenamiento militar realistas.

109
00:09:39,495 --> 00:09:43,291
Hemos venido a evaluar
nuestro piloto de inteligencia artificial.

110
00:09:44,625 --> 00:09:49,297
La misión consiste en buscar amenazas.
Se trata de detectar elementos.

111
00:09:49,380 --> 00:09:52,800
Puede decidir cómo abordar ese problema.

112
00:09:55,428 --> 00:09:59,390
Esto se llama 'el embudo mortal'.
Tienes que entrar por una puerta.

113
00:10:01,726 --> 00:10:03,227
Se es muy vulnerable ahí.

114
00:10:03,811 --> 00:10:05,187
Este tiene mejor pinta.

115
00:10:07,106 --> 00:10:10,151
El Nova nos dirá
si hay un tirador tras esa puerta

116
00:10:10,818 --> 00:10:12,653
o una familia.

117
00:10:15,114 --> 00:10:18,451
Podremos tomar mejores decisiones
y proteger a la gente.

118
00:10:57,114 --> 00:10:59,367
Usamos los sensores de visión

119
00:10:59,450 --> 00:11:03,162
para entender cómo es el entorno.

120
00:11:04,997 --> 00:11:06,415
Hay varios pisos.

121
00:11:07,333 --> 00:11:08,334
Es el mapa.

122
00:11:08,417 --> 00:11:11,671
Mientras exploraba,
he visto esto y los he visto aquí.

123
00:11:19,929 --> 00:11:22,098
Detecta personas. Increíble.

124
00:11:23,891 --> 00:11:27,061
Otro de los sensores del Nova
es un escáner térmico.

125
00:11:27,561 --> 00:11:30,690
Si está a 37 grados,
probablemente sea un humano.

126
00:11:32,441 --> 00:11:35,444
Las personas son amenazas
hasta que se considere lo contrario.

127
00:11:38,906 --> 00:11:43,244
Se trata de eliminar la niebla de guerra
para tomar mejores decisiones.

128
00:11:44,704 --> 00:11:46,539
De cara al futuro,

129
00:11:47,039 --> 00:11:50,793
tenemos la intención
de construir equipos de aviones autónomos.

130
00:11:53,754 --> 00:11:55,631
A los vehículos autónomos

131
00:11:55,715 --> 00:11:59,802
les ordenas ir del punto A al punto B.

132
00:12:02,972 --> 00:12:07,893
A nuestros sistemas no les pedimos ir
del punto A al B, sino lograr un objetivo.

133
00:12:10,312 --> 00:12:13,190
Se parece más a: "Necesito leche".

134
00:12:13,274 --> 00:12:17,486
El robot tendría
que averiguar a qué tienda ir,

135
00:12:17,570 --> 00:12:19,905
coger esa leche y luego traerla.

136
00:12:20,740 --> 00:12:22,158
Y, en mayor medida,

137
00:12:22,241 --> 00:12:27,037
podría ser más apropiado decir:
"Mantén el frigorífico lleno".

138
00:12:27,538 --> 00:12:29,415
Es un nivel de inteligencia

139
00:12:29,498 --> 00:12:32,168
que sabe
qué necesitamos y cómo procurárnoslo.

140
00:12:32,251 --> 00:12:37,381
Si surge un reto, una dificultad
o un problema, averigua cómo resolverlo.

141
00:12:40,801 --> 00:12:43,888
Cuando decidí dejar la Marina,

142
00:12:43,971 --> 00:12:45,431
empecé a pensar:

143
00:12:45,514 --> 00:12:47,558
"Vale, ¿y ahora qué?".

144
00:12:49,143 --> 00:12:52,021
Crecí con Internet
y vi en qué se ha convertido.

145
00:12:53,189 --> 00:12:55,608
Y, en parte, llegué a la conclusión de…

146
00:12:56,108 --> 00:12:58,944
que la IA en 2005

147
00:12:59,028 --> 00:13:02,907
estaba donde estaba Internet en 1991.

148
00:13:04,033 --> 00:13:06,410
Y la IA estaba lista para echar a volar

149
00:13:06,494 --> 00:13:09,747
y ser una de las tecnologías más potentes
del mundo.

150
00:13:11,791 --> 00:13:15,961
Al trabajar en esto cada día,
veo cómo progresa.

151
00:13:19,089 --> 00:13:22,051
Pero, cuando mucha gente piensa en la IA,

152
00:13:22,551 --> 00:13:25,221
piensan automáticamente en Hollywood.

153
00:13:28,057 --> 00:13:29,975
¿Jugamos a algo?

154
00:13:30,059 --> 00:13:35,314
¿Qué tal a la Guerra Termonuclear Global?

155
00:13:35,898 --> 00:13:36,816
Vale.

156
00:13:38,275 --> 00:13:40,903
Cuando la gente piensa en la IA,

157
00:13:40,986 --> 00:13:44,824
piensan en Terminator o en Yo, robot.

158
00:13:45,574 --> 00:13:46,700
Desactívate.

159
00:13:46,784 --> 00:13:48,160
¿Qué soy?

160
00:13:48,244 --> 00:13:49,620
O Matrix.

161
00:13:51,080 --> 00:13:53,749
Teniendo en cuenta
lo que se ve en el cine,

162
00:13:53,833 --> 00:13:57,878
¿cómo sabes que soy humano?
Podría ser una IA generada por ordenador.

163
00:13:58,379 --> 00:14:02,132
Los replicantes son como una máquina:
beneficiosos o peligrosos.

164
00:14:02,675 --> 00:14:06,095
Pero hay todo tipo
de inteligencia artificial primitiva

165
00:14:06,178 --> 00:14:08,097
que cambiará nuestras vidas

166
00:14:08,180 --> 00:14:11,851
mucho antes de llegar a la fase del robot
que piensa y habla.

167
00:14:12,643 --> 00:14:15,771
Los robots están aquí y toman decisiones.

168
00:14:15,855 --> 00:14:18,816
La revolución robótica ha llegado.

169
00:14:18,899 --> 00:14:22,319
Lo que pasa es que no es
lo que nos imaginábamos.

170
00:14:23,320 --> 00:14:26,740
Es una unidad de infiltración.
Medio hombre, medio máquina.

171
00:14:27,950 --> 00:14:31,370
No es un robot asesino a lo terminator,

172
00:14:31,871 --> 00:14:35,332
sino una IA que hace algunas cosas
que los humanos hacen.

173
00:14:36,041 --> 00:14:39,879
La fiabilidad de estos sistemas preocupa.

174
00:14:40,462 --> 00:14:45,426
Nuevos detalles sobre el accidente mortal
con un Uber todoterreno autónomo.

175
00:14:45,509 --> 00:14:48,762
La empresa ha creado un chatbot de IA.

176
00:14:48,846 --> 00:14:51,181
Ha adoptado un tono bastante racista…

177
00:14:51,265 --> 00:14:55,394
Ha identificado erróneamente
a 26 legisladores como delincuentes.

178
00:14:55,477 --> 00:14:57,354
ASOCIA A 28 CONGRESISTAS CON DELINCUENTES

179
00:14:57,438 --> 00:15:01,984
La cuestión es si pueden hacerle
frente a la complejidad del mundo real.

180
00:15:22,212 --> 00:15:24,006
El mundo físico es difícil.

181
00:15:25,174 --> 00:15:27,217
Hay muchas cosas que no sabemos,

182
00:15:27,968 --> 00:15:30,763
por lo que cuesta
más entrenar sistemas de IA.

183
00:15:33,098 --> 00:15:36,977
Por eso han aparecido
los sistemas de aprendizaje automático.

184
00:15:38,520 --> 00:15:41,523
El aprendizaje automático
ha supuesto un gran avance

185
00:15:42,024 --> 00:15:45,611
porque no tenemos que enseñárselo
todo a los ordenadores.

186
00:15:47,905 --> 00:15:52,409
Le das a un ordenador millones de datos

187
00:15:52,493 --> 00:15:54,453
y la máquina empieza a aprender.

188
00:15:55,245 --> 00:15:57,289
Eso podría aplicarse a todo.

189
00:16:00,250 --> 00:16:02,962
Nuestro perro robot intenta demostrar

190
00:16:03,045 --> 00:16:09,009
que puede andar
por muchos tipos de terrenos.

191
00:16:10,052 --> 00:16:14,098
Los humanos han evolucionado
durante millones de años para andar,

192
00:16:14,932 --> 00:16:20,688
pero adaptarse a todos estos terrenos
implica mucha inteligencia.

193
00:16:21,939 --> 00:16:27,069
¿Los sistemas robóticos podrían adaptarse
como los animales y los humanos?

194
00:16:35,953 --> 00:16:40,582
Con el aprendizaje automático,
recopilamos muchos datos en la simulación.

195
00:16:42,668 --> 00:16:45,838
Una simulación
es un gemelo digital de la realidad.

196
00:16:46,588 --> 00:16:52,052
Podemos tener muchos ejemplos
de esa realidad en diferentes ordenadores.

197
00:16:53,178 --> 00:16:56,974
La simulación muestrea miles de acciones.

198
00:16:58,934 --> 00:17:03,856
Andan por suelos con diferentes niveles
de deslizamiento y blandura.

199
00:17:04,898 --> 00:17:08,318
Cogemos toda la experiencia
de estos miles de robots

200
00:17:08,402 --> 00:17:13,073
de la simulación y la descargamos
en un sistema robótico real.

201
00:17:15,492 --> 00:17:19,955
La prueba de hoy consiste en ver
si puede adaptarse a nuevos terrenos.

202
00:17:53,322 --> 00:17:55,532
Cuando ha pasado por la espuma,

203
00:17:55,616 --> 00:17:58,577
los movimientos de los pies
golpeaban el suelo.

204
00:17:59,369 --> 00:18:02,206
Pero, en la superficie de polietileno,

205
00:18:03,248 --> 00:18:06,460
ha intentado ajustar
el movimiento para no resbalarse.

206
00:18:08,670 --> 00:18:10,714
Entonces te das cuenta

207
00:18:10,798 --> 00:18:13,675
de que es gracias
al aprendizaje automático.

208
00:18:41,161 --> 00:18:44,123
Creemos que el perro robot
podría ser muy útil

209
00:18:44,206 --> 00:18:46,166
en casos de catástrofes

210
00:18:46,250 --> 00:18:49,670
en los que hay
que sortear muchos terrenos.

211
00:18:52,631 --> 00:18:57,427
O podrían llevar a cabo
tareas de vigilancia en entornos hostiles.

212
00:19:15,696 --> 00:19:19,575
Pero la mayoría de la tecnología
se enfrenta al problema

213
00:19:19,658 --> 00:19:22,369
de que pueden hacer cosas buenas y malas.

214
00:19:24,079 --> 00:19:27,875
Podemos usar la tecnología nuclear
para generar energía…

215
00:19:30,419 --> 00:19:33,797
pero también podemos crear
bombas atómicas que son malas.

216
00:19:35,090 --> 00:19:38,468
Es lo que se conoce
como el problema del doble uso.

217
00:19:39,052 --> 00:19:40,929
El fuego es de doble uso.

218
00:19:41,722 --> 00:19:44,308
La inteligencia humana es de doble uso.

219
00:19:44,391 --> 00:19:48,645
No hace falta decir
que la IA también es de doble uso.

220
00:19:49,354 --> 00:19:53,984
Es muy importante pensar
en la inteligencia artificial en contexto

221
00:19:54,693 --> 00:19:59,114
porque sí, es estupendo tener
un robot de búsqueda y rescate

222
00:19:59,198 --> 00:20:02,284
que puede localizar
a alguien tras una avalancha,

223
00:20:02,868 --> 00:20:05,871
pero ese mismo robot
puede convertirse en un arma.

224
00:20:15,088 --> 00:20:21,094
Cuando ves que las empresas
usan la robótica para ponerles armas,

225
00:20:21,178 --> 00:20:22,930
una parte de ti se enfada.

226
00:20:23,931 --> 00:20:28,435
Y, en parte, es porque,
cuando comercialicemos nuestra tecnología,

227
00:20:28,518 --> 00:20:29,895
es lo que va a pasar.

228
00:20:31,021 --> 00:20:34,441
Es una tecnología transformadora.

229
00:20:36,235 --> 00:20:38,028
Son sistemas de armas

230
00:20:38,111 --> 00:20:43,617
que podrían cambiar
nuestra seguridad de forma significativa.

231
00:20:46,161 --> 00:20:52,459
Por ahora no estamos seguros
de que las máquinas puedan diferenciar

232
00:20:52,542 --> 00:20:54,962
entre civiles y soldados.

233
00:21:01,885 --> 00:21:05,597
Al principio de la guerra,
estaba en un grupo de francotiradores

234
00:21:05,681 --> 00:21:08,016
que buscaba a soldados enemigos.

235
00:21:09,685 --> 00:21:12,521
Mandaron a una niña
a explorar nuestra posición.

236
00:21:13,939 --> 00:21:17,067
Nunca se nos ocurrió dispararle.

237
00:21:19,695 --> 00:21:22,864
Según las leyes de la guerra,
habría sido legal.

238
00:21:24,950 --> 00:21:27,369
No fijan una edad para los enemigos.

239
00:21:29,079 --> 00:21:33,458
Si hubieras construido un robot
para acatar las leyes de la guerra,

240
00:21:33,542 --> 00:21:35,085
le habría disparado.

241
00:21:36,420 --> 00:21:41,091
¿Cómo diferenciaría un robot
entre lo legal y lo correcto?

242
00:21:43,385 --> 00:21:46,054
Cuando se trata de una guerra con drones,

243
00:21:46,138 --> 00:21:51,476
no quieren que salgan heridos los soldados
y la psique estadounidenses,

244
00:21:52,602 --> 00:21:57,149
pero los que se llevarían la peor parte
serían los afganos,

245
00:21:57,232 --> 00:21:58,775
los iraquíes y somalíes.

246
00:22:09,619 --> 00:22:14,416
Yo les preguntaría a los que apoyan
que se use la IA en drones:

247
00:22:15,375 --> 00:22:17,627
"¿Y si atacaran tu pueblo?".

248
00:22:23,550 --> 00:22:25,594
La IA es un arma de doble filo.

249
00:22:26,595 --> 00:22:30,724
Se puede usar para el bien,
que es para lo que se usaría normalmente,

250
00:22:31,558 --> 00:22:33,477
y, con solo pulsar un botón,

251
00:22:34,561 --> 00:22:38,023
la tecnología se convierte
en algo potencialmente mortal.

252
00:22:38,106 --> 00:22:40,233
CAROLINA DEL NORTE

253
00:22:47,032 --> 00:22:48,533
Soy farmacólogo clínico.

254
00:22:49,618 --> 00:22:54,247
Tengo un equipo de gente
que usa la IA para encontrar medicamentos

255
00:22:54,331 --> 00:22:57,751
que curan enfermedades
a las que no se les presta atención.

256
00:22:59,711 --> 00:23:02,047
Se hacía descubriendo fármacos.

257
00:23:02,130 --> 00:23:04,132
Cogías una molécula que ya existía

258
00:23:04,216 --> 00:23:06,885
y la modificabas
para conseguir otro fármaco.

259
00:23:08,261 --> 00:23:13,350
Y ahora hemos desarrollado una IA
que puede darnos millones de ideas,

260
00:23:13,892 --> 00:23:15,227
millones de moléculas,

261
00:23:16,186 --> 00:23:19,231
y eso le abre
la puerta a muchas posibilidades

262
00:23:19,314 --> 00:23:22,567
a la hora de tratar enfermedades
que no podíamos tratar.

263
00:23:25,195 --> 00:23:29,658
Pero tiene un lado oscuro
que nunca pensé que visitaría.

264
00:23:30,242 --> 00:23:32,119
ME ENCANTA LA QUÍMICA

265
00:23:33,161 --> 00:23:35,872
Todo esto empezó cuando me invitó

266
00:23:35,956 --> 00:23:40,043
una organización suiza
llamada Laboratorio Spiez

267
00:23:40,544 --> 00:23:44,423
para hacer una presentación
sobre el uso indebido de la IA.

268
00:23:48,343 --> 00:23:51,221
Sean me mandó un correo con algunas ideas

269
00:23:51,304 --> 00:23:55,308
sobre los malos usos
que se le podrían dar a nuestra IA.

270
00:23:56,059 --> 00:24:00,355
Y, en vez de pedirle que creara
moléculas parecidas a las medicinas

271
00:24:00,439 --> 00:24:02,065
para tratar enfermedades,

272
00:24:02,774 --> 00:24:06,403
intentamos generar
las moléculas más tóxicas posibles.

273
00:24:10,198 --> 00:24:15,203
Quería dejar claro que podíamos usar
la IA para diseñar moléculas mortales.

274
00:24:17,414 --> 00:24:20,083
Y, sinceramente,
creíamos que fracasaríamos

275
00:24:20,167 --> 00:24:24,504
porque bastó
con cambiar este cero por un uno.

276
00:24:26,715 --> 00:24:30,385
Y, al invertirlo,
en vez de alejarnos de la toxicidad,

277
00:24:30,469 --> 00:24:32,220
se volvió el objetivo.

278
00:24:32,721 --> 00:24:33,555
Y ya está.

279
00:24:37,517 --> 00:24:40,729
Mientras estaba en casa,
el ordenador trabajaba por mí.

280
00:24:41,521 --> 00:24:44,816
Decodificaba, generaba miles de moléculas

281
00:24:45,650 --> 00:24:49,529
y no teníamos que hacer
nada aparte de darle a Intro.

282
00:24:54,493 --> 00:24:58,330
A la mañana siguiente,
había un archivo en mi ordenador

283
00:24:59,080 --> 00:25:03,376
y dentro había unas 40 000 moléculas

284
00:25:03,460 --> 00:25:05,253
que eran potencialmente

285
00:25:05,337 --> 00:25:08,882
algunas de las moléculas más tóxicas
que conoce la humanidad.

286
00:25:10,258 --> 00:25:12,761
Se me pusieron los pelos de punta.

287
00:25:13,386 --> 00:25:14,596
Me quedé alucinando.

288
00:25:15,388 --> 00:25:20,685
El ordenador creó miles de ideas
para nuevas armas químicas.

289
00:25:21,645 --> 00:25:26,274
Obviamente, tenemos moléculas
que parecen y son análogas de VX y VX

290
00:25:26,775 --> 00:25:27,609
en los datos.

291
00:25:28,360 --> 00:25:31,363
El VX es
una de las armas más potentes que hay.

292
00:25:31,863 --> 00:25:33,573
La policía afirma

293
00:25:33,657 --> 00:25:37,786
que las mujeres que atacaron
a Kim Jong-nam en el aeropuerto

294
00:25:37,869 --> 00:25:41,248
usaron un agente nervioso mortal
llamado VX.

295
00:25:41,748 --> 00:25:44,417
Puede causar la muerte por asfixia.

296
00:25:45,043 --> 00:25:47,629
Es una molécula muy potente

297
00:25:47,712 --> 00:25:52,092
y se predijo que casi todas estas
serían incluso más mortíferas que el VX.

298
00:25:53,301 --> 00:25:56,972
Por lo que sabemos,
muchas no se han llegado a ver nunca.

299
00:25:57,472 --> 00:26:02,310
Cuando Sean y yo nos dimos cuenta de esto,
pensamos: "¿Qué hemos hecho?".

300
00:26:04,771 --> 00:26:09,192
Me di cuenta enseguida
de que habíamos abierto la caja de Pandora

301
00:26:09,901 --> 00:26:12,696
y dije: "Para.
No hagas nada más. Se acabó.

302
00:26:13,905 --> 00:26:17,158
Hazme las diapositivas
para la presentación".

303
00:26:19,202 --> 00:26:20,704
Al hacer el experimento,

304
00:26:20,787 --> 00:26:23,540
pensaba: "¿Qué es
lo peor que podría pasar?".

305
00:26:26,251 --> 00:26:30,088
Ahora pienso: "Fuimos ingenuos.
Fuimos muy ingenuos al hacerlo".

306
00:26:33,466 --> 00:26:36,928
Lo que me aterra
es que cualquiera podría hacer lo mismo.

307
00:26:38,930 --> 00:26:40,765
Basta con pulsar un botón.

308
00:26:42,934 --> 00:26:46,187
¿Cómo controlamos
esta tecnología antes de que se use

309
00:26:46,271 --> 00:26:50,942
para hacer algo totalmente destructivo?

310
00:26:55,780 --> 00:27:00,285
En el centro del debate
sobre la inteligencia artificial

311
00:27:00,368 --> 00:27:03,538
y sobre cómo la usamos en la sociedad,

312
00:27:04,289 --> 00:27:08,835
hay una carrera entre la capacidad
que tenemos para desarrollar tecnologías

313
00:27:08,918 --> 00:27:11,379
y la sensatez con la que las controlamos.

314
00:27:13,340 --> 00:27:16,926
Hay implicaciones morales y éticas obvias

315
00:27:17,010 --> 00:27:20,180
a la hora de darle a un programa,
como en un móvil,

316
00:27:20,263 --> 00:27:23,433
la capacidad de decidir
si matar a alguien o no.

317
00:27:25,727 --> 00:27:28,146
Trabajo con el Instituto
del Futuro de la Vida,

318
00:27:28,229 --> 00:27:31,191
una comunidad de activistas científicos.

319
00:27:31,775 --> 00:27:33,443
Intentamos mostrar

320
00:27:33,526 --> 00:27:38,698
que la aceleración y la escalada
de la automatización tiene otra faceta.

321
00:27:38,782 --> 00:27:42,619
Pero intentamos asegurarnos
de que las tecnologías que creamos

322
00:27:42,702 --> 00:27:45,038
se usan de forma segura y ética.

323
00:27:46,247 --> 00:27:49,959
Hablemos sobre las normas de intervención

324
00:27:50,043 --> 00:27:54,005
y cómo debemos comportarnos
al usar la IA en los sistemas de armas

325
00:27:54,798 --> 00:27:59,177
porque están apareciendo
tecnologías hechas para entrar en combate

326
00:27:59,260 --> 00:28:01,680
que pueden matar de forma autónoma.

327
00:28:10,230 --> 00:28:15,110
En 2021, las Naciones Unidas
publicaron un informe sobre el posible uso

328
00:28:15,193 --> 00:28:19,364
de un arma autónoma letal
en el campo de batalla libio.

329
00:28:20,073 --> 00:28:23,910
Las Naciones Unidas afirman
que un dron de la guerra civil libia

330
00:28:23,993 --> 00:28:27,330
fue programado para atacar
objetivos de forma autónoma.

331
00:28:28,289 --> 00:28:30,792
Si los informes son correctos,

332
00:28:31,292 --> 00:28:34,963
sería un momento decisivo
para la humanidad

333
00:28:35,046 --> 00:28:37,090
porque implica el primer caso

334
00:28:37,173 --> 00:28:41,720
en el que una inteligencia artificial
ha decidido matar a un ser humano.

335
00:28:49,686 --> 00:28:55,150
Empiezan a usarse armas avanzadas
en diferentes lugares del mundo.

336
00:28:56,276 --> 00:28:58,278
Hubo informes de Israel.

337
00:29:00,280 --> 00:29:02,907
Azerbaiyán usó sistemas autónomos

338
00:29:02,991 --> 00:29:05,702
para atacar las defensas aéreas armenias.

339
00:29:07,370 --> 00:29:09,205
Puede volar durante horas,

340
00:29:10,081 --> 00:29:12,500
buscando cosas a las que atacar

341
00:29:12,584 --> 00:29:16,087
y luego las ataca
sin ningún tipo de intervención humana.

342
00:29:16,796 --> 00:29:18,298
Y hemos visto hace poco

343
00:29:18,381 --> 00:29:21,760
todos estos vídeos
que se publican en Ucrania.

344
00:29:23,303 --> 00:29:26,890
No está claro en qué modo
estaban cuando estaban funcionando.

345
00:29:26,973 --> 00:29:30,393
¿Había un humano implicado
que elegía qué objetivos atacar

346
00:29:30,477 --> 00:29:32,312
o la máquina lo hacía sola?

347
00:29:32,812 --> 00:29:36,524
Pero llegará un momento,

348
00:29:36,608 --> 00:29:40,195
haya pasado o no en Libia,
en Ucrania o donde sea,

349
00:29:40,278 --> 00:29:44,449
en el que una máquina decidirá
a quién matar en el campo de batalla.

350
00:29:47,035 --> 00:29:50,997
Las máquinas que matan humanos

351
00:29:51,080 --> 00:29:53,374
sin intervención humana

352
00:29:53,458 --> 00:29:57,337
son políticamente inaceptables
y moralmente repugnantes.

353
00:29:59,130 --> 00:30:05,011
No sabemos si la comunidad internacional
podrá hacerle frente a estos desafíos.

354
00:30:05,094 --> 00:30:06,888
Es un gran interrogante.

355
00:30:08,932 --> 00:30:12,685
Si miramos hacia el futuro,
aunque solo sea dentro de unos años,

356
00:30:12,769 --> 00:30:15,730
el panorama da mucho miedo

357
00:30:16,564 --> 00:30:20,485
porque la cantidad de capital
y recursos humanos

358
00:30:20,568 --> 00:30:23,404
que se invierten para fortalecer la IA

359
00:30:23,488 --> 00:30:26,032
y para darle todas estas aplicaciones

360
00:30:26,115 --> 00:30:26,950
son enormes.

361
00:30:39,254 --> 00:30:41,214
Dios mío, qué tío.

362
00:30:41,756 --> 00:30:43,424
Sabe que no puede ganar.

363
00:30:46,761 --> 00:30:51,099
Cuando veo que la IA gana
en diferentes ámbitos, me inspira.

364
00:30:51,683 --> 00:30:53,393
Voy a la desesperada.

365
00:30:54,394 --> 00:30:59,524
Y puedes aplicar las mismas tácticas,
técnicas y métodos a aviones reales.

366
00:31:01,401 --> 00:31:02,318
Bien hecho.

367
00:31:02,402 --> 00:31:03,653
Vale, bien hecho.

368
00:31:08,658 --> 00:31:09,909
Me sorprende

369
00:31:09,993 --> 00:31:14,122
que la gente siga opinando
sobre lo que puede hacer o no la IA.

370
00:31:14,205 --> 00:31:16,583
"Nunca vencerá a un campeón de ajedrez".

371
00:31:20,211 --> 00:31:22,672
Un ordenador de IBM ha remontado

372
00:31:22,755 --> 00:31:25,925
en su partida
contra el campeón Garri Kaspárov.

373
00:31:28,136 --> 00:31:30,847
¡Kaspárov ha renunciado!

374
00:31:31,598 --> 00:31:34,642
Cuando veo algo
que va más allá de mi comprensión,

375
00:31:34,726 --> 00:31:38,062
me da miedo.
Y eso estaba más allá de mi comprensión.

376
00:31:39,355 --> 00:31:41,107
Y luego la gente dijo:

377
00:31:41,190 --> 00:31:44,444
"Nunca podrá vencer
a un campeón mundial de go".

378
00:31:44,527 --> 00:31:50,700
Creo que la intuición humana
es demasiado avanzada como para que la IA

379
00:31:50,783 --> 00:31:52,827
esté a la altura.

380
00:31:55,330 --> 00:31:58,416
El go es
uno de los juegos más complicados que hay

381
00:31:58,499 --> 00:32:02,211
porque el número de movimientos,
cuando los calculas,

382
00:32:02,295 --> 00:32:05,256
es superior a los átomos
que hay en el universo.

383
00:32:05,340 --> 00:32:06,716
PARTIDA DE DESAFÍO

384
00:32:06,799 --> 00:32:08,968
El equipo DeepMind de Google

385
00:32:09,052 --> 00:32:11,471
creó un programa llamado AlphaGo

386
00:32:11,554 --> 00:32:14,265
para vencer
a los mejores jugadores del mundo.

387
00:32:16,559 --> 00:32:19,437
- Enhorabuena a… AlphaGo.
- AlphaGo.

388
00:32:19,520 --> 00:32:22,774
Un programa
acaba de ganarle a un profesional.

389
00:32:25,610 --> 00:32:31,532
Y luego DeepMind eligió StarCraft
como su próximo desafío de IA.

390
00:32:33,743 --> 00:32:38,081
StarCraft será el juego de estrategia
en tiempo real más popular que hay.

391
00:32:38,665 --> 00:32:40,249
DEEPMIND ESTÁ CASI INVICTO

392
00:32:40,333 --> 00:32:44,712
AlphaStar se volvió famoso
cuando empezó a derrotar a los campeones.

393
00:32:45,338 --> 00:32:48,800
AlphaStar está aplastando a Immortal Arc.

394
00:32:48,883 --> 00:32:49,717
¿Sabes qué?

395
00:32:49,801 --> 00:32:52,553
Los profesionales
no pueden ganar esta pelea.

396
00:32:52,971 --> 00:32:57,558
LA INTELIGENCIA ARTIFICIAL SE CONVIERTE
EN LA GRAN MAESTRA DE STARCRAFT II

397
00:32:57,642 --> 00:33:00,895
Los profesionales decían:
"Nunca usaría esa táctica.

398
00:33:00,979 --> 00:33:04,816
Nunca usaría esa estrategia.
No es humano".

399
00:33:07,151 --> 00:33:10,655
Y ahí fue cuando me di cuenta.

400
00:33:13,574 --> 00:33:16,661
Me di cuenta
de que había llegado el momento.

401
00:33:17,412 --> 00:33:21,082
Se puede marcar
la diferencia con esta tecnología.

402
00:33:24,502 --> 00:33:29,382
Solo conocía los problemas
que había en el combate cuerpo a cuerpo,

403
00:33:30,383 --> 00:33:34,470
pero un muy buen amigo mío,
que es piloto de F-18, me dijo:

404
00:33:34,554 --> 00:33:39,434
"Tenemos el mismo problema.
Bloquean las comunicaciones.

405
00:33:39,517 --> 00:33:42,562
Proliferan los emplazamientos
de misiles tierra-aire

406
00:33:42,645 --> 00:33:44,439
que nos ponen en peligro".

407
00:33:47,483 --> 00:33:50,987
Imagina que tuviéramos
un avión pilotado por una IA.

408
00:33:51,070 --> 00:33:52,739
Bienvenidos a AlphaDogfight.

409
00:33:52,822 --> 00:33:56,159
Queda poco para la primera semifinal.

410
00:33:56,242 --> 00:33:59,871
DARPA, la Agencia
de Proyectos de Investigación Avanzada,

411
00:33:59,954 --> 00:34:03,624
había visto AlphaGo y AlphaStar,

412
00:34:04,292 --> 00:34:08,171
así que se les ocurrió
crear la competición AlphaDogfight.

413
00:34:09,005 --> 00:34:11,466
Quieres que tus pilotos hagan esto.

414
00:34:11,549 --> 00:34:13,593
Parece una pelea de perros humana.

415
00:34:15,595 --> 00:34:19,057
En estas peleas,
se enfrentan dos aviones de combate.

416
00:34:19,891 --> 00:34:22,852
Es como un combate de boxeo en el cielo.

417
00:34:23,853 --> 00:34:26,314
Puede que la gente haya visto Top Gun.

418
00:34:26,397 --> 00:34:27,815
¿Podemos dejarlos atrás?

419
00:34:28,649 --> 00:34:30,068
Sus misiles y armas no.

420
00:34:30,151 --> 00:34:31,277
Pues pelea.

421
00:34:35,531 --> 00:34:39,285
Puedes tardar entre ocho
y diez años en dominar estas peleas.

422
00:34:42,288 --> 00:34:46,209
Crear una IA que se encargue de esto
supone un desafío complejo.

423
00:34:54,092 --> 00:34:58,679
Los planteamientos anteriores
sobre la autonomía eran frágiles.

424
00:34:59,222 --> 00:35:03,017
Este problema se resolvería
con el aprendizaje automático.

425
00:35:04,477 --> 00:35:08,189
Al principio la IA
no sabía nada de este mundillo.

426
00:35:08,272 --> 00:35:11,025
No sabía que volaba o qué era una pelea.

427
00:35:11,109 --> 00:35:12,735
No sabía qué era un F-16.

428
00:35:13,236 --> 00:35:18,407
Solo sabía qué acciones podía tomar
y empezó a explorar esas acciones al azar.

429
00:35:19,325 --> 00:35:23,204
El avión azul
lleva entrenándose poco tiempo.

430
00:35:23,287 --> 00:35:25,832
Se ve que se tambalea de un lado a otro,

431
00:35:26,624 --> 00:35:30,545
vuela de forma muy errática
y se aleja de su adversario.

432
00:35:31,587 --> 00:35:36,134
A medida que avanza la pelea,
el azul establece una estrategia.

433
00:35:36,676 --> 00:35:38,636
Está en posición de disparar.

434
00:35:39,178 --> 00:35:43,891
A veces el algoritmo de aprendizaje decía:
"Bien hecho, sigue así".

435
00:35:45,268 --> 00:35:50,064
Podemos usar la potencia del ordenador
y entrenar a los agentes en paralelo.

436
00:35:51,357 --> 00:35:52,775
Es como un equipo.

437
00:35:53,276 --> 00:35:55,778
No siempre
nos enfrentamos al mismo equipo,

438
00:35:55,862 --> 00:35:59,198
sino que vamos por el mundo
enfrentándonos a 512 equipos

439
00:35:59,699 --> 00:36:00,950
al mismo tiempo.

440
00:36:01,492 --> 00:36:03,452
Puedes volverte bueno muy rápido.

441
00:36:04,162 --> 00:36:07,456
La simulación
estuvo ejecutándose sin parar

442
00:36:07,540 --> 00:36:10,668
y conseguimos
unos 30 años de entrenamiento

443
00:36:10,751 --> 00:36:11,919
en diez meses.

444
00:36:12,879 --> 00:36:15,673
Pasamos de apenas poder controlar el avión

445
00:36:15,756 --> 00:36:17,717
a ser asesinos sin piedad.

446
00:36:19,051 --> 00:36:23,139
Durante el entrenamiento,
solo competíamos contra otra IA.

447
00:36:24,473 --> 00:36:28,561
Pero el objetivo final
era competir contra humanos.

448
00:36:34,233 --> 00:36:35,568
Me llamo Mike Benitez.

449
00:36:36,110 --> 00:36:38,654
Soy teniente coronel
de las Fuerzas Aéreas.

450
00:36:39,155 --> 00:36:41,157
Llevo unos 25 años en activo.

451
00:36:42,825 --> 00:36:44,869
Tengo 250 misiones a mis espaldas

452
00:36:45,578 --> 00:36:47,538
y me gradué en la Escuela Aérea.

453
00:36:48,039 --> 00:36:49,832
Es Top Gun a lo Fuerza Aérea.

454
00:36:52,627 --> 00:36:55,171
Nunca me he enfrentado a una IA.

455
00:36:55,254 --> 00:36:58,549
Me hace mucha ilusión
ver lo bien que puedo hacerlo.

456
00:36:59,634 --> 00:37:03,054
Tenemos una ofensiva
a 1,83 km dispuesta cara a cara.

457
00:37:04,388 --> 00:37:05,223
Vamos allá.

458
00:37:13,314 --> 00:37:14,148
Se ha ido.

459
00:37:14,732 --> 00:37:16,234
Sí, qué interesante.

460
00:37:20,780 --> 00:37:23,658
- Muerto.
- Le he dado. Victoria impecable.

461
00:37:25,910 --> 00:37:27,453
Vale, segunda ronda.

462
00:37:35,461 --> 00:37:40,508
La inteligencia artificial
maniobra con tal precisión

463
00:37:41,384 --> 00:37:43,219
que no puedo seguirle el ritmo.

464
00:37:48,474 --> 00:37:49,725
Justo en la fusión.

465
00:37:50,768 --> 00:37:51,769
Ahora te has ido.

466
00:37:53,145 --> 00:37:53,980
¡Le he dado!

467
00:37:54,063 --> 00:37:55,022
Y me ha dado.

468
00:37:58,567 --> 00:38:00,069
La IA nunca tiene miedo.

469
00:38:00,736 --> 00:38:03,781
En la cabina,
uno siente cosas que la IA no siente.

470
00:38:04,991 --> 00:38:10,121
Una de las estrategias más interesantes
que creó la IA fue el disparo frontal.

471
00:38:10,621 --> 00:38:16,377
Un humano suele querer disparar por detrás
porque cuesta dejar atrás al adversario.

472
00:38:17,044 --> 00:38:20,214
No intentan disparar de frente.
Es muy arriesgado.

473
00:38:21,424 --> 00:38:27,096
Si estás de frente,
puedes pasar de 900 a 150 m en un pispás.

474
00:38:27,596 --> 00:38:31,183
Corres el riesgo de colisionar.
Los humanos no lo intentan.

475
00:38:32,893 --> 00:38:35,938
La IA no temerá a la muerte
a menos que se lo digas.

476
00:38:37,857 --> 00:38:40,026
Parece que me enfrento a un humano,

477
00:38:40,776 --> 00:38:44,113
pero un humano
que pasa olímpicamente de la seguridad.

478
00:38:45,489 --> 00:38:47,325
No va a sobrevivir al último.

479
00:38:57,168 --> 00:38:58,461
No dispone de tiempo.

480
00:39:01,964 --> 00:39:02,965
Buenas noches.

481
00:39:04,091 --> 00:39:04,925
Estoy muerto.

482
00:39:16,812 --> 00:39:20,941
Supone una lección de humildad
saber que no soy lo mejor para esto

483
00:39:21,484 --> 00:39:24,320
y que esa cosa
podría llegar a sustituirme.

484
00:39:25,696 --> 00:39:26,906
Mismo techo y visibilidad.

485
00:39:27,615 --> 00:39:28,949
Desplazamiento de 304.

486
00:39:29,450 --> 00:39:32,078
Con este piloto de IA al mando,

487
00:39:32,828 --> 00:39:34,830
la victoria es rotunda y absoluta.

488
00:39:34,914 --> 00:39:37,249
No se trata solo de ganar por goleada,

489
00:39:37,333 --> 00:39:41,545
sino de cómo incorporar la IA al avión.
Es así de potente.

490
00:39:43,672 --> 00:39:47,802
Es realista que la inteligencia artificial
pilote un F-16

491
00:39:47,885 --> 00:39:49,970
y la cosa no tardará mucho.

492
00:39:51,305 --> 00:39:56,769
Si te enfrentas a un piloto de IA
con una tasa de victorias del 99,99999 %,

493
00:39:56,852 --> 00:39:58,062
estás acabado.

494
00:39:59,605 --> 00:40:02,733
Cuando pienso
que un único piloto de IA es imbatible,

495
00:40:02,817 --> 00:40:06,695
pienso en lo que un equipo de 50, 100

496
00:40:07,279 --> 00:40:12,493
o 1000 pilotos de inteligencia artificial
pueden conseguir.

497
00:40:13,702 --> 00:40:18,791
Un enjambre es un grupo de aviones
muy inteligentes que trabajan juntos.

498
00:40:19,291 --> 00:40:23,462
Comparten información sobre qué hacer
y cómo resolver un problema.

499
00:40:25,172 --> 00:40:32,054
Supondrá un cambio radical
para nuestro ejército y nuestros aliados.

500
00:41:42,750 --> 00:41:44,126
Objetivo adquirido.

501
00:41:44,793 --> 00:41:47,379
Los drones lo están siguiendo.

502
00:42:02,019 --> 00:42:03,354
Vale, toca aterrizar.

503
00:42:07,566 --> 00:42:10,402
El objetivo del enjambre
en el que trabajamos

504
00:42:11,153 --> 00:42:13,697
es desplegar un gran número de drones

505
00:42:13,781 --> 00:42:17,910
en una zona de difícil acceso o peligrosa.

506
00:42:21,705 --> 00:42:25,960
El Centro de Investigación del Ejército
ha estado apoyando este proyecto.

507
00:42:26,919 --> 00:42:32,883
Si quieres saber qué hay en un lugar,
pero cuesta llegar o es un lugar enorme,

508
00:42:33,676 --> 00:42:38,389
desplegar un enjambre es una forma natural
de ampliar el alcance humano

509
00:42:38,472 --> 00:42:41,934
y de recopilar
información crítica para la misión.

510
00:42:46,689 --> 00:42:48,983
Cuando desplegamos un enjambre,

511
00:42:49,066 --> 00:42:53,904
damos una única orden
para rastrear al objetivo de interés.

512
00:42:54,488 --> 00:42:57,283
Luego los drones van
y lo hacen todo solos.

513
00:42:59,493 --> 00:43:04,081
La IA permite que los robots
se muevan colectivamente como un enjambre

514
00:43:04,164 --> 00:43:05,708
de forma descentralizada.

515
00:43:10,671 --> 00:43:12,506
En los enjambres naturales,

516
00:43:13,299 --> 00:43:17,761
no hay un jefe o un animal principal
que les diga qué hacer.

517
00:43:20,556 --> 00:43:25,019
El comportamiento
proviene de cada animal a nivel individual

518
00:43:25,102 --> 00:43:27,104
siguiendo unas reglas sencillas.

519
00:43:27,688 --> 00:43:32,443
De ahí surge
este comportamiento colectivo emergente.

520
00:43:33,944 --> 00:43:37,031
Lo impresionante de los enjambres
en la naturaleza

521
00:43:37,114 --> 00:43:39,992
es la elegante habilidad
con la que se mueven.

522
00:43:40,576 --> 00:43:44,288
Es como si estuvieran hechos
para formar parte de ese grupo.

523
00:43:46,790 --> 00:43:51,128
Lo que nos gustaría
es que nuestros enjambres de drones fueran

524
00:43:51,211 --> 00:43:53,172
como los de la naturaleza,

525
00:43:53,672 --> 00:43:56,717
donde el grupo toma las decisiones.

526
00:43:59,928 --> 00:44:02,765
Lo que también nos inspira

527
00:44:02,848 --> 00:44:06,268
es su fiabilidad y resistencia.

528
00:44:07,311 --> 00:44:09,188
Ese enjambre no se vendrá abajo

529
00:44:09,271 --> 00:44:13,567
si un animal en particular
no hace lo que debería hacer.

530
00:44:15,194 --> 00:44:18,697
Aunque uno de los agentes se caiga, falle

531
00:44:18,781 --> 00:44:20,741
o no pueda completar la tarea,

532
00:44:21,909 --> 00:44:23,661
el enjambre seguirá adelante.

533
00:44:25,204 --> 00:44:27,873
En resumidas cuentas, queremos eso.

534
00:44:29,333 --> 00:44:33,879
Necesitamos identificar aviones enemigos
en situaciones de combate

535
00:44:33,962 --> 00:44:37,841
y antes necesitábamos
que una persona controlara un robot.

536
00:44:38,592 --> 00:44:43,555
A medida que aumente la autonomía,
espero que veamos un gran número de robots

537
00:44:43,639 --> 00:44:46,558
controlados por muy pocas personas.

538
00:44:47,851 --> 00:44:50,854
No veo por qué no podríamos llegar a mil

539
00:44:51,355 --> 00:44:54,942
porque cada agente
podrá actuar por su cuenta

540
00:44:55,025 --> 00:44:56,443
y no hay límites.

541
00:44:57,027 --> 00:44:59,071
Podemos escalar el aprendizaje…

542
00:44:59,154 --> 00:45:03,325
Llevamos bastante tiempo
trabajando en la simulación de enjambres

543
00:45:03,409 --> 00:45:06,829
y ya es hora de llevarlos
al mundo de la aviación real.

544
00:45:07,329 --> 00:45:12,042
Esperamos poder controlar
tres robots a la vez a través de la red

545
00:45:12,126 --> 00:45:15,129
y luego empezaremos a añadir cada vez más.

546
00:45:15,879 --> 00:45:18,549
Queremos probarlo en sistemas más pequeños

547
00:45:18,632 --> 00:45:23,262
y luego aplicarlo a sistemas más grandes,
como un avión de combate.

548
00:45:24,596 --> 00:45:26,014
Se habla mucho de…

549
00:45:26,098 --> 00:45:31,937
cómo se le da a un pelotón
la capacidad de combate de un batallón…

550
00:45:34,982 --> 00:45:39,528
o cómo se le da a un batallón
la capacidad de combate de una brigada.

551
00:45:39,611 --> 00:45:41,488
Puede lograrse con el enjambre.

552
00:45:42,614 --> 00:45:45,200
Y, cuando se logre esa capacidad,

553
00:45:45,284 --> 00:45:49,455
habrás creado una estrategia de disuasión
a la agresión militar.

554
00:45:52,332 --> 00:45:57,004
Creo que lo más emocionante
es la cantidad de hombres y mujeres

555
00:45:57,087 --> 00:46:00,299
que salvaremos si lo hacemos bien.

556
00:46:01,091 --> 00:46:03,594
Pondremos máquinas en juego

557
00:46:04,553 --> 00:46:05,846
y no vidas humanas.

558
00:46:06,638 --> 00:46:10,893
Algunos dicen que las armas autónomas
harán que la guerra sea más precisa

559
00:46:10,976 --> 00:46:12,311
y más humana,

560
00:46:12,853 --> 00:46:15,397
pero cuesta predecir

561
00:46:15,481 --> 00:46:19,443
exactamente cómo cambiarán
la guerra antes de tiempo.

562
00:46:21,403 --> 00:46:23,238
Es como la ametralladora Gatling.

563
00:46:25,073 --> 00:46:27,117
Richard Gatling era inventor

564
00:46:27,201 --> 00:46:30,954
y vio que los soldados
volvían heridos de la Guerra Civil.

565
00:46:32,289 --> 00:46:35,292
Quería intentar hacer
la guerra más humana.

566
00:46:36,627 --> 00:46:39,797
Quería reducir
el número de soldados que morían

567
00:46:40,464 --> 00:46:42,633
reduciendo su número en la batalla.

568
00:46:44,092 --> 00:46:48,388
Inventó la ametralladora Gatling,
un arma activada por una manivela

569
00:46:48,472 --> 00:46:50,516
que automatizaba los disparos.

570
00:46:53,310 --> 00:46:57,981
Aumentaba la potencia
de fuego de los soldados por cien.

571
00:47:01,235 --> 00:47:05,239
Cuando intentas hacer
la guerra más precisa y humana,

572
00:47:06,490 --> 00:47:07,991
suele pasar lo contrario.

573
00:47:10,160 --> 00:47:14,540
Piensa en el efecto que tiene
el ataque de un dron en una zona rural:

574
00:47:14,623 --> 00:47:17,209
empuja a la población local contra EE. UU.

575
00:47:17,292 --> 00:47:18,544
y el gobierno local.

576
00:47:18,627 --> 00:47:20,712
Supuestamente los buenos.

577
00:47:22,589 --> 00:47:25,008
Ahora multiplícalo por mil.

578
00:47:26,802 --> 00:47:30,305
Un sistema armamentístico barato,

579
00:47:30,389 --> 00:47:34,560
adaptable y que no requiera
operarios humanos

580
00:47:34,643 --> 00:47:37,896
cambia drásticamente
las barreras del conflicto.

581
00:47:40,107 --> 00:47:44,486
Me quita el sueño pensar en un mundo
donde la guerra es omnipresente

582
00:47:44,987 --> 00:47:48,657
y donde obviamos
su coste humano y económico

583
00:47:48,740 --> 00:47:51,410
porque nos hemos distanciado mucho de…

584
00:47:52,369 --> 00:47:53,871
las personas que morirán.

585
00:47:59,585 --> 00:48:00,794
Me atormenta.

586
00:48:02,212 --> 00:48:05,924
Me bastaba
con un ejemplo de mal uso de la IA.

587
00:48:06,842 --> 00:48:10,888
Las consecuencias imprevistas
de ese simple experimento teórico

588
00:48:10,971 --> 00:48:12,848
han ido demasiado lejos.

589
00:48:13,348 --> 00:48:16,226
LA IA Y LOS FÁRMACOS:
CÓMO EVITAR PROVOCAR DAÑOS

590
00:48:17,352 --> 00:48:22,107
Cuando hice la presentación
sobre las moléculas creadas por la IA,

591
00:48:22,608 --> 00:48:24,192
el público alucinó.

592
00:48:25,402 --> 00:48:27,613
LOS MEJORES COMPUESTOS
ERAN ANÁLOGOS DEL VX

593
00:48:29,406 --> 00:48:33,493
Luego decidimos
si publicar esa información o no.

594
00:48:34,912 --> 00:48:39,166
Por un lado, quieres advertir
al mundo de este tipo de capacidad,

595
00:48:39,249 --> 00:48:44,087
pero tampoco quieres darle ideas
a alguien que nos las tenía.

596
00:48:46,381 --> 00:48:48,133
Decidimos publicarlo

597
00:48:48,216 --> 00:48:52,721
para encontrar formas
de mitigar el mal uso de este tipo de IA

598
00:48:52,804 --> 00:48:54,139
antes de que ocurra.

599
00:48:54,222 --> 00:48:56,975
DOBLE USO DEL DESCUBRIMIENTO DE FÁRMACOS
IMPULSADO POR LA IA

600
00:48:57,559 --> 00:49:01,813
ESTA TECNOLOGÍA PODRÍA USARSE
PARA DISEÑAR ARMAS BIOQUÍMICAS

601
00:49:01,897 --> 00:49:04,775
La reacción del público fue impactante.

602
00:49:07,194 --> 00:49:10,656
Se ven las métricas en la página:
cuánta gente ha accedido.

603
00:49:10,739 --> 00:49:14,534
Con un artículo cualquiera,
tenemos suerte si lo leen

604
00:49:14,618 --> 00:49:19,831
unos cuantos miles de personas
a lo largo de un año o varios años.

605
00:49:19,915 --> 00:49:22,084
Lo leyeron 10 000 en una semana.

606
00:49:22,167 --> 00:49:25,337
Luego fueron 20 000, 30 000, 40 000

607
00:49:25,837 --> 00:49:28,715
y llegamos a 10 000 personas al día.

608
00:49:30,258 --> 00:49:33,512
Salimos en The Economist
y el Financial Times.

609
00:49:35,639 --> 00:49:39,977
Nos contactó Radiolab.
¡He oído hablar de Radiolab!

610
00:49:41,937 --> 00:49:45,899
Pero las reacciones se desbocaron.

611
00:49:49,778 --> 00:49:53,532
Esos tuits decían:
"No podrían haber hecho algo peor".

612
00:49:53,615 --> 00:49:54,491
HOSTIA PUTA

613
00:49:54,574 --> 00:49:56,076
"¿Por qué lo han hecho?".

614
00:49:56,159 --> 00:49:57,411
UN ARTÍCULO SINIESTRO

615
00:49:57,911 --> 00:50:01,123
ESOS FRIKIS NOS MATARÁN A TODOS

616
00:50:01,206 --> 00:50:04,501
Y recibimos una invitación
que nunca habría imaginado.

617
00:50:08,839 --> 00:50:12,926
Se habló mucho
del artículo en la Casa Blanca

618
00:50:13,010 --> 00:50:15,345
y querían hablarnos con urgencia.

619
00:50:18,849 --> 00:50:20,809
Supone un honor increíble

620
00:50:20,892 --> 00:50:23,020
poder hablar con gente a este nivel.

621
00:50:23,603 --> 00:50:28,900
Pero entonces te das cuenta:
"Dios mío, es la Casa Blanca. Es el jefe".

622
00:50:29,693 --> 00:50:33,196
Tuvimos que juntar
series de datos de código abierto…

623
00:50:33,280 --> 00:50:37,701
En unas seis horas,
el modelo pudo generar más de 40 000…

624
00:50:37,784 --> 00:50:41,038
Nos preguntaron
cuánta potencia de cálculo se necesitaba

625
00:50:41,872 --> 00:50:43,832
y dijimos que era algo normalito.

626
00:50:44,332 --> 00:50:48,211
Un Mac normal y corriente de seis años.

627
00:50:49,546 --> 00:50:51,256
Y se quedaron boquiabiertos.

628
00:50:54,968 --> 00:50:59,473
Los encargados de entender
los agentes de guerra química

629
00:50:59,556 --> 00:51:04,019
y las agencias gubernamentales
no tenían ni idea de este potencial.

630
00:51:06,605 --> 00:51:09,816
Hay un libro de recetas
para hacer armas químicas

631
00:51:10,650 --> 00:51:15,572
y, si cae
en manos de alguien malintencionado,

632
00:51:16,573 --> 00:51:18,992
podría ser horrible.

633
00:51:21,787 --> 00:51:26,458
La gente tiene que escuchar
y tenemos que regular esta tecnología

634
00:51:27,250 --> 00:51:30,670
o restringirla de forma
que no se pueda usar mal.

635
00:51:31,880 --> 00:51:35,175
Porque el potencial letal

636
00:51:36,176 --> 00:51:37,344
es aterrador.

637
00:51:40,680 --> 00:51:45,977
La sociedad es la que aborda
la cuestión de la ética de la IA.

638
00:51:46,561 --> 00:51:50,273
No son los ingenieros, tecnólogos
o matemáticos.

639
00:51:52,484 --> 00:51:56,822
La sociedad siempre acaba opinando
sobre el uso que debemos darles

640
00:51:56,905 --> 00:52:00,617
a la tecnología
y a las innovaciones que presentamos.

641
00:52:03,036 --> 00:52:06,039
Ahora mismo el Ministerio de Defensa dice:

642
00:52:06,581 --> 00:52:09,960
"Solo un humano
decidirá si debemos matar algo

643
00:52:10,043 --> 00:52:11,920
en el campo de batalla".

644
00:52:12,504 --> 00:52:14,548
Una máquina puede matar,

645
00:52:15,674 --> 00:52:18,927
pero solo a instancias
de un operador humano

646
00:52:19,636 --> 00:52:21,429
y no creo que vaya a cambiar.

647
00:52:24,808 --> 00:52:28,103
Nos aseguran
que este tipo de tecnología será segura,

648
00:52:29,729 --> 00:52:33,692
pero el ejército estadounidense
no tiene una reputación fiable

649
00:52:33,775 --> 00:52:35,485
con la guerra de drones.

650
00:52:36,820 --> 00:52:41,783
Cuando se trata de confiarle
la IA al ejército estadounidense,

651
00:52:41,867 --> 00:52:44,327
el historial habla por sí solo.

652
00:52:46,288 --> 00:52:50,125
La política de Defensa
en relación con el uso de armas autónomas

653
00:52:50,208 --> 00:52:52,919
no prohíbe
ningún tipo de sistema de armas.

654
00:52:53,003 --> 00:52:56,715
Incluso si los ejércitos
no quieren armas autónomas,

655
00:52:56,798 --> 00:53:01,678
podrían darles
más poder de decisión a las máquinas

656
00:53:01,761 --> 00:53:03,680
para seguirles
el ritmo a los competidores.

657
00:53:04,806 --> 00:53:09,978
Los ejércitos podrían automatizar
decisiones que no quieren automatizar.

658
00:53:12,063 --> 00:53:13,440
Vladímir Putin dijo:

659
00:53:13,523 --> 00:53:16,693
"Quien lidere la IA gobernará el mundo".

660
00:53:17,736 --> 00:53:23,325
El presidente Xi ha dejado claro que la IA
es una de las principales tecnologías

661
00:53:23,408 --> 00:53:25,702
que China quiere dominar.

662
00:53:26,786 --> 00:53:29,831
Estamos en una competición tecnológica.

663
00:53:33,501 --> 00:53:35,670
Se habla de barreras de seguridad

664
00:53:36,463 --> 00:53:39,424
y creo que es
lo que la gente debería hacer.

665
00:53:40,467 --> 00:53:45,180
Pero la carrera
por la superioridad de la IA es muy real.

666
00:53:47,265 --> 00:53:51,603
Y a nuestros adversarios,
ya sea China, Rusia o Irán,

667
00:53:52,187 --> 00:53:56,566
les dará igual lo que diga
nuestra política sobre la IA.

668
00:54:00,820 --> 00:54:04,324
Se habla más de las políticas de IA,

669
00:54:06,117 --> 00:54:09,287
pero me gustaría
que más líderes hablaran de ello

670
00:54:09,371 --> 00:54:11,706
en plan:
"¿Cuánto tardaremos en montar esto?

671
00:54:12,707 --> 00:54:15,001
Invirtamos en ello y construyámoslo".

672
00:54:18,922 --> 00:54:21,299
EXPOSICIÓN ANUAL DEL EJÉRCITO

673
00:54:24,177 --> 00:54:26,805
EJÉRCITO DE LOS ESTADOS UNIDOS

674
00:54:33,478 --> 00:54:38,358
Estamos en la mayor feria anual
de la Asociación del Ejército de EE. UU.

675
00:54:39,609 --> 00:54:44,572
Cualquier vendedor que quiera venderle
un producto o tecnología a un ejército

676
00:54:44,656 --> 00:54:46,616
estará en la feria.

677
00:54:47,701 --> 00:54:50,537
La base aérea de Tyndall
tiene cuatro robots

678
00:54:50,620 --> 00:54:53,748
que patrullan su base las 24 horas,
todos los días.

679
00:54:55,750 --> 00:55:00,130
Podemos añadir de todo:
cámaras, sensores y lo que necesites.

680
00:55:00,213 --> 00:55:05,135
Brazos manipuladores. Lo que el cliente
necesite para completar su misión.

681
00:55:06,678 --> 00:55:08,388
¿Y si tu enemigo usa IA?

682
00:55:09,431 --> 00:55:12,976
¿Un sistema que piensa
y responde más rápido que tú,

683
00:55:13,059 --> 00:55:16,062
que un ser humano?
Tenemos que estar preparados.

684
00:55:17,605 --> 00:55:21,359
Entrenamos los sistemas
para recopilar datos sobre el enemigo

685
00:55:22,027 --> 00:55:26,531
y para gestionar los objetivos,
pero un humano da la orden de abatirlos.

686
00:55:33,288 --> 00:55:34,956
- Hola, general.
- ¿Qué tal?

687
00:55:35,040 --> 00:55:36,416
Bien, señor. ¿Qué tal?

688
00:55:37,709 --> 00:55:42,630
Hemos invertido mucho en pilotos de IA.
El nuestro se llama Hivemind.

689
00:55:43,298 --> 00:55:45,925
Se lo hemos aplicado
al cuadricóptero Nova.

690
00:55:46,009 --> 00:55:50,805
Explora edificios antes de que entren
las fuerzas especiales y la infantería.

691
00:55:50,889 --> 00:55:52,891
Lo estamos aplicando a V-BAT.

692
00:55:52,974 --> 00:55:56,811
Podríamos poner cientos de esos equipos

693
00:55:56,895 --> 00:56:01,608
en el estrecho de Taiwán o en Ucrania
para disuadir a nuestros adversarios.

694
00:56:01,691 --> 00:56:03,360
Estoy muy emocionado.

695
00:56:03,943 --> 00:56:06,112
- Vale, gracias.
- Gracias, general.

696
00:56:07,989 --> 00:56:13,370
Los pilotos de IA
deberían generalizarse para 2025 o 2030.

697
00:56:14,204 --> 00:56:17,582
Los ejércitos de todo el mundo
los adoptarán enseguida.

698
00:56:19,250 --> 00:56:22,962
¿Te encargas de los vehículos aéreos
no tripulados rumanos?

699
00:56:23,046 --> 00:56:24,589
Alta tecnología en el ejército.

700
00:56:25,256 --> 00:56:29,803
Nos hemos gastado 500 millones de dólares
en construir un piloto de IA.

701
00:56:29,886 --> 00:56:33,181
Gastaremos otros mil millones
en los próximos cinco años.

702
00:56:33,264 --> 00:56:37,769
Por eso nos asignan
los contratos de Defensa en EE. UU.

703
00:56:37,852 --> 00:56:38,853
Estupendo.

704
00:56:38,937 --> 00:56:42,732
Es impresionante.
¿Habéis conseguido convertirlo en un arma?

705
00:56:43,650 --> 00:56:45,568
Aún no es un arma.

706
00:56:45,652 --> 00:56:48,321
Aún no, pero lo haremos en el futuro.

707
00:56:48,905 --> 00:56:52,534
Los clientes
lo consideran una camioneta inteligente

708
00:56:52,617 --> 00:56:54,452
que puede hacer muchas cosas.

709
00:56:54,536 --> 00:56:55,703
- Gracias.
- Sí.

710
00:56:55,787 --> 00:56:57,789
Me aseguraré de contactarte.

711
00:57:01,668 --> 00:57:04,879
Si vuelves en diez años, verás que…

712
00:57:06,339 --> 00:57:10,802
la IA y la autonomía
habrán dominado este mercado.

713
00:57:14,889 --> 00:57:19,352
Los ejércitos
que cuenten con IA y con autonomía

714
00:57:19,436 --> 00:57:25,108
dominarán, aplastarán y destruirán
a los ejércitos que no las tengan.

715
00:57:26,401 --> 00:57:30,780
Será como caballos enfrentándose a tanques

716
00:57:31,781 --> 00:57:34,367
o espadachines a ametralladoras.

717
00:57:34,909 --> 00:57:37,120
Habrá una diferencia abismal.

718
00:57:38,746 --> 00:57:42,750
Se generalizará.
Se usará en todos los espectros bélicos:

719
00:57:43,585 --> 00:57:44,836
a nivel táctico

720
00:57:45,336 --> 00:57:46,671
y a nivel estratégico.

721
00:57:47,172 --> 00:57:50,800
Operará a una velocidad inimaginable
para los humanos.

722
00:57:53,094 --> 00:57:57,098
Ya hay demasiada información
que agobia a los comandantes:

723
00:57:57,599 --> 00:58:01,019
imágenes de satélites, drones y sensores.

724
00:58:02,103 --> 00:58:06,774
La IA puede ayudar a un comandante
a entender qué pasa con mayor rapidez

725
00:58:07,692 --> 00:58:09,694
y qué decisiones debe tomar.

726
00:58:11,237 --> 00:58:14,866
La inteligencia artificial
tendrá en cuenta todos los factores

727
00:58:14,949 --> 00:58:17,702
que determinan cómo se libra la guerra,

728
00:58:18,286 --> 00:58:20,246
ideará estrategias…

729
00:58:22,582 --> 00:58:25,668
y recomendará cómo ganar una batalla.

730
00:58:32,217 --> 00:58:34,344
CENTRO DE INNOVACIÓN

731
00:58:36,971 --> 00:58:40,266
Lockheed Martin y su cliente,
el Ministerio de Defensa,

732
00:58:40,350 --> 00:58:45,104
consideran la IA un elemento clave
para garantizar el mando y el control.

733
00:58:47,065 --> 00:58:50,109
La velocidad de propagación es de 60 cm/s.

734
00:58:50,193 --> 00:58:52,278
Este perímetro tiene unas 283 ha.

735
00:58:52,779 --> 00:58:55,782
La niebla de guerra
es una realidad bélica,

736
00:58:57,158 --> 00:59:00,495
pero tiene
paralelismos con el medioambiente

737
00:59:00,578 --> 00:59:03,206
y la toma de decisiones
en caso de incendios.

738
00:59:03,289 --> 00:59:06,543
El incendio de Washburn
está al norte de Wawona.

739
00:59:06,626 --> 00:59:09,629
Tienes que tomar
decisiones con datos imperfectos.

740
00:59:10,630 --> 00:59:14,300
¿Y cómo nos ayuda la IA
con esa niebla de guerra?

741
00:59:17,637 --> 00:59:19,597
Los incendios son muy caóticos.

742
00:59:20,181 --> 00:59:21,266
Son muy complejos,

743
00:59:22,267 --> 00:59:26,354
así que estamos trabajando
para utilizar la IA

744
00:59:26,437 --> 00:59:27,855
para tomar decisiones.

745
00:59:31,442 --> 00:59:33,987
El Encargado de Misión Cognitiva
es un programa

746
00:59:34,070 --> 00:59:37,949
que graba vídeos aéreos con infrarrojos

747
00:59:38,032 --> 00:59:41,786
y que los procesa
a través de nuestros algoritmos de IA

748
00:59:41,869 --> 00:59:45,248
para poder predecir
el futuro del incendio.

749
00:59:48,042 --> 00:59:52,922
A medida que nos adentramos en el futuro,
el programa usará la simulación

750
00:59:53,006 --> 00:59:57,135
y ejecutará marcos hipotéticos
a lo largo de miles de ciclos

751
00:59:57,218 --> 01:00:00,722
para recomendar la forma más eficaz
de desplegar recursos

752
01:00:00,805 --> 01:00:04,058
para sofocar
áreas de incendio de alta prioridad.

753
01:00:08,062 --> 01:00:12,400
Dirá: "Manda
un helicóptero Firehawk a este sitio.

754
01:00:13,568 --> 01:00:15,903
Lleva a equipos que limpien la maleza

755
01:00:16,946 --> 01:00:19,032
y a bomberos con mangueras

756
01:00:19,657 --> 01:00:22,660
a zonas de alta prioridad".

757
01:00:26,289 --> 01:00:31,044
Esas decisiones podrán generarse
de forma más rápida y eficiente.

758
01:00:35,840 --> 01:00:38,468
Consideramos que la IA nos permite

759
01:00:38,551 --> 01:00:42,305
estar preparados frente
a un medioambiente en constante cambio.

760
01:00:43,389 --> 01:00:46,517
Y hay muchos paralelismos

761
01:00:46,601 --> 01:00:50,355
entre lo que solemos hacer
aquí y el aspecto bélico.

762
01:00:52,231 --> 01:00:55,860
El ejército ya no habla de usar la IA

763
01:00:55,943 --> 01:01:00,323
y los sistemas de armas individuales
para decidir qué objetivos eliminar,

764
01:01:00,865 --> 01:01:02,200
sino de integrar la IA

765
01:01:02,283 --> 01:01:05,787
en la toma de decisiones
a todos los niveles.

766
01:01:09,457 --> 01:01:12,960
El Ejército tiene
el Proyecto Convergencia.

767
01:01:14,545 --> 01:01:16,589
La Marina tiene Overmatch.

768
01:01:16,673 --> 01:01:19,592
Y las Fuerzas Aéreas tienen
el Sistema de Gestión de Combate.

769
01:01:21,886 --> 01:01:24,138
Defensa está intentando averiguar

770
01:01:24,222 --> 01:01:26,683
cómo juntar todo esto

771
01:01:26,766 --> 01:01:29,268
para operar más rápido que los adversarios

772
01:01:30,395 --> 01:01:32,355
y llevarles ventaja.

773
01:01:33,481 --> 01:01:37,527
Un encargado de batalla de IA
sería un general de alto rango

774
01:01:37,610 --> 01:01:39,821
que está al mando de la batalla.

775
01:01:41,155 --> 01:01:44,158
Ayudaría a darles órdenes a las tropas,

776
01:01:45,118 --> 01:01:49,288
coordinaría las acciones de las armas

777
01:01:49,372 --> 01:01:51,958
y lo haría a una velocidad sobrehumana.

778
01:01:53,543 --> 01:01:58,798
Llevamos 70 años creando
el ejército más sofisticado del planeta

779
01:01:58,881 --> 01:02:03,177
y ahora tenemos
que decidir si cederle el control

780
01:02:03,261 --> 01:02:07,598
de esa infraestructura a un algoritmo,
a un software.

781
01:02:10,351 --> 01:02:13,187
Y esa decisión

782
01:02:13,271 --> 01:02:16,774
podría hacer
que usáramos todos nuestros arsenales.

783
01:02:16,858 --> 01:02:19,902
No es un Hiroshima. Son cientos.

784
01:02:25,658 --> 01:02:27,869
Tenemos que actuar ya

785
01:02:27,952 --> 01:02:33,166
porque nos estamos quedando
sin tiempo para reducir este riesgo.

786
01:02:34,625 --> 01:02:41,132
Empezamos con los retos de seguridad
que plantean las nuevas tecnologías

787
01:02:41,215 --> 01:02:44,343
en relación
con los sistemas de armas autónomos.

788
01:02:44,427 --> 01:02:47,722
En las Naciones Unidas, se habla

789
01:02:47,805 --> 01:02:50,016
de la amenaza que suponen estas armas

790
01:02:50,099 --> 01:02:56,564
y de que no permitimos sistemas de IA
que seleccionan y abaten personas.

791
01:02:56,647 --> 01:03:00,777
El consenso entre los tecnólogos
es claro y rotundo.

792
01:03:00,860 --> 01:03:04,030
Nos oponemos a las armas autónomas
que abaten humanos.

793
01:03:05,615 --> 01:03:11,329
Los estados llevan años discutiendo
sobre los sistemas autónomos letales.

794
01:03:12,288 --> 01:03:16,793
Se trata de la seguridad global.

795
01:03:17,794 --> 01:03:20,546
Pero claro, no es fácil.

796
01:03:21,297 --> 01:03:25,968
Algunos países,
sobre todo las potencias militares,

797
01:03:26,052 --> 01:03:27,762
quieren estar a la vanguardia

798
01:03:28,429 --> 01:03:31,599
para llevarles ventaja a sus adversarios.

799
01:03:32,600 --> 01:03:36,187
Para hacer algo,
todo el mundo tiene que estar de acuerdo.

800
01:03:36,896 --> 01:03:39,065
Habrá al menos un país que se oponga

801
01:03:39,148 --> 01:03:42,109
y Estados Unidos y Rusia han dejado claro

802
01:03:42,193 --> 01:03:45,613
que se oponen a un tratado
que prohibiría estas armas.

803
01:03:47,198 --> 01:03:53,204
La cantidad de personas que trabajan
para hacer que la IA sea más potente

804
01:03:54,747 --> 01:03:56,457
es elevadísima.

805
01:03:57,750 --> 01:04:02,880
La cantidad de personas que trabajan
para hacer que la IA sea segura

806
01:04:04,340 --> 01:04:07,426
es bastante inferior.

807
01:04:11,764 --> 01:04:13,724
Pero también soy muy optimista.

808
01:04:16,102 --> 01:04:19,438
Pienso en la Convención
sobre las Armas Biológicas

809
01:04:19,522 --> 01:04:21,774
que ocurrió en plena Guerra Fría,

810
01:04:23,025 --> 01:04:27,655
a pesar de las tensiones
entre la Unión Soviética y Estados Unidos.

811
01:04:29,156 --> 01:04:33,536
Pudieron darse cuenta
de que el desarrollo de armas biológicas

812
01:04:33,619 --> 01:04:36,247
no era lo mejor para ellos

813
01:04:36,330 --> 01:04:38,749
ni para el mundo en general.

814
01:04:41,335 --> 01:04:44,714
La carrera armamentística favorece
la velocidad frente a la seguridad,

815
01:04:45,715 --> 01:04:48,342
pero creo que se darán cuenta de que,

816
01:04:48,426 --> 01:04:52,430
en un momento dado,
ir demasiado rápido sale caro.

817
01:04:56,225 --> 01:04:59,270
No podemos desarrollar
cosas de forma aislada

818
01:05:00,021 --> 01:05:06,611
y usarlas sin pensar
en las consecuencias que podrían tener.

819
01:05:07,862 --> 01:05:10,865
Tenemos que evitar
lo que pasó con la bomba atómica.

820
01:05:14,577 --> 01:05:17,705
Hay mucho en juego
en la carrera por la IA.

821
01:05:18,289 --> 01:05:22,001
No creo que mucha gente
aprecie la estabilidad global

822
01:05:22,084 --> 01:05:28,174
que se ha logrado
al tener una fuerza militar superior

823
01:05:28,257 --> 01:05:31,135
durante los últimos 75 años.

824
01:05:32,887 --> 01:05:35,681
Por eso, EE. UU. y sus fuerzas aliadas

825
01:05:36,557 --> 01:05:38,684
deben superar a la IA rival.

826
01:05:43,314 --> 01:05:44,774
O se gana o se pierde.

827
01:05:45,483 --> 01:05:49,111
China ha presentado un plan para ser
la líder en IA para 2030.

828
01:05:49,195 --> 01:05:51,656
EE. UU. está perdiendo la carrera.

829
01:05:52,740 --> 01:05:56,160
Se acelerará
la adopción de la inteligencia artificial

830
01:05:56,243 --> 01:05:59,246
para asegurar
nuestra ventaja militar competitiva.

831
01:06:02,875 --> 01:06:05,461
Estamos avanzando con esta tecnología.

832
01:06:05,544 --> 01:06:08,673
Lo que no está claro
es hasta dónde llegaremos.

833
01:06:09,507 --> 01:06:12,176
¿Controlamos la tecnología
o ella a nosotros?

834
01:06:14,136 --> 01:06:16,973
No habrá segundas oportunidades.

835
01:06:17,807 --> 01:06:20,977
Cuando el problema se descontrole,
se acabó.

836
01:06:21,978 --> 01:06:25,147
Costará mucho encontrar una solución.

837
01:06:28,609 --> 01:06:31,737
Y, si no actuamos ya,
será demasiado tarde.

838
01:06:33,114 --> 01:06:34,657
Puede que ya sea tarde.

839
01:08:48,124 --> 01:08:50,126
Subtítulos: Mónica Morales Gómez



