1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
Acho que a inteligência artificial
inspira admiração.

4
00:00:28,361 --> 00:00:31,489
Muito bem, a subir em círculo.
Boa formação.

5
00:00:33,116 --> 00:00:36,703
A inteligência artificial
tem o potencial de eliminar a pobreza,

6
00:00:36,786 --> 00:00:38,705
dar-nos novos medicamentos

7
00:00:39,330 --> 00:00:41,583
e tornar o nosso mundo
ainda mais pacífico.

8
00:00:46,087 --> 00:00:46,921
Muito bem.

9
00:00:49,883 --> 00:00:53,428
Mas há tantos riscos pelo caminho.

10
00:01:04,773 --> 00:01:09,611
Com a IA, estamos a criar
uma inteligência não humana

11
00:01:09,694 --> 00:01:11,863
muito imprevisível.

12
00:01:14,407 --> 00:01:16,451
À medida que se torna mais poderosa,

13
00:01:16,534 --> 00:01:19,746
onde estão os limites que vamos traçar

14
00:01:19,829 --> 00:01:22,665
a nível de como
a queremos empregar ou não?

15
00:01:25,001 --> 00:01:28,505
Não há nada mais importante nesta conversa

16
00:01:28,588 --> 00:01:31,049
do que as aplicações militares.

17
00:01:34,010 --> 00:01:38,890
O campo de batalha tornou-se
o território do software e do hardware.

18
00:01:41,059 --> 00:01:42,936
O alvo está na mira.

19
00:01:43,019 --> 00:01:48,399
As forças armadas estão numa corrida
para desenvolver a IA antes dos inimigos.

20
00:01:49,526 --> 00:01:50,360
Estou morto.

21
00:01:53,780 --> 00:01:58,326
Estamos a avançar para um mundo
em que não só os grandes exércitos,

22
00:01:58,409 --> 00:02:02,997
mas também agentes
não-governamentais, indústrias privadas

23
00:02:03,081 --> 00:02:06,042
e até a esquadra da Polícia da nossa rua,

24
00:02:06,543 --> 00:02:10,046
podem usar essas armas
que matam com autonomia.

25
00:02:12,006 --> 00:02:17,303
Vamos dar a decisão de tirar uma vida
a algoritmos, a software de computador?

26
00:02:18,638 --> 00:02:21,516
É uma das questões
mais urgentes do nosso tempo.

27
00:02:23,935 --> 00:02:26,354
Se não for usada com bom senso,

28
00:02:26,437 --> 00:02:30,275
representa um grave risco
para todas as pessoas no planeta.

29
00:02:41,828 --> 00:02:44,914
DESCONHECIDO

30
00:02:46,833 --> 00:02:50,086
ROBÔS ASSASSINOS

31
00:03:28,291 --> 00:03:30,168
Bom trabalho, pessoal.

32
00:03:59,948 --> 00:04:02,200
Uma objetiva mais ampla do que antes.

33
00:04:02,283 --> 00:04:03,117
A sério?

34
00:04:03,201 --> 00:04:04,786
Podemos ver muito mais dados.

35
00:04:05,286 --> 00:04:06,287
Muito fixe.

36
00:04:07,538 --> 00:04:11,167
Na Shield AI, construímos um piloto de IA

37
00:04:11,251 --> 00:04:14,879
que aplica a tecnologia IA
de carros autónomos

38
00:04:14,963 --> 00:04:16,631
a aeronaves.

39
00:04:19,300 --> 00:04:21,719
Quando falamos de um piloto de IA,

40
00:04:21,803 --> 00:04:25,139
pensamos em dar um maior grau
de autonomia a uma aeronave.

41
00:04:25,223 --> 00:04:27,850
Vai resolver problemas sozinho.

42
00:04:29,602 --> 00:04:32,355
O Nova é um quadricóptero autónomo

43
00:04:32,438 --> 00:04:35,942
que explora edifícios
e estruturas subterrâneas

44
00:04:36,859 --> 00:04:38,611
à frente das forças de desminagem

45
00:04:38,695 --> 00:04:41,322
para proporcionar vigilância
nesses espaços.

46
00:04:41,906 --> 00:04:45,618
Notam-se imensas melhorias
desde a última vez que o vimos.

47
00:04:45,702 --> 00:04:47,870
Estamos a fazer
umas mudanças na exploração.

48
00:04:47,954 --> 00:04:50,248
Estamos a trabalhar piso a piso.

49
00:04:50,331 --> 00:04:53,584
Acaba um andar, todas as salas,
antes de ir para o segundo.

50
00:04:54,294 --> 00:04:56,796
- É espantoso.
- Fizemos umas alterações…

51
00:04:56,879 --> 00:04:58,548
Muitas pessoas perguntam

52
00:04:58,631 --> 00:05:02,468
porque a inteligência artificial
é uma competência importante

53
00:05:02,552 --> 00:05:06,973
e eu lembro-me das missões que executei.

54
00:05:09,142 --> 00:05:10,935
Passei sete anos na Marinha.

55
00:05:11,561 --> 00:05:15,273
Fui um SEAL da Marinha
destacado duas vezes para o Afeganistão

56
00:05:15,356 --> 00:05:17,191
e uma vez para o Pacífico.

57
00:05:18,026 --> 00:05:22,947
Num dado dia, podíamos ter
de examinar 150 complexos ou edifícios.

58
00:05:30,997 --> 00:05:34,250
Uma das capacidades essenciais
é o combate corpo a corpo.

59
00:05:35,293 --> 00:05:39,172
Tiroteios à queima-roupa
dentro de edifícios.

60
00:05:41,466 --> 00:05:42,967
Somos alvejados.

61
00:05:43,468 --> 00:05:46,471
Pode haver bombas caseiras no edifício.

62
00:05:49,015 --> 00:05:55,229
É a coisa mais perigosa
que qualquer membro das forças especiais

63
00:05:55,313 --> 00:05:58,358
ou membro da infantaria
pode fazer numa zona de combate.

64
00:05:58,441 --> 00:05:59,275
Sem exceção.

65
00:06:12,497 --> 00:06:16,334
Estarei grato pelo tempo que passei
na Marinha para o resto da vida.

66
00:06:17,168 --> 00:06:20,338
Tenho uma coleção de momentos e memórias

67
00:06:20,421 --> 00:06:24,592
que sempre me comovem quando penso neles.

68
00:06:28,346 --> 00:06:32,725
É um cliché que a liberdade
não é de graça, mas eu acredito nele.

69
00:06:33,559 --> 00:06:37,105
Passei por isso e exige muito sacrifício.

70
00:06:38,022 --> 00:06:38,856
Desculpem.

71
00:06:41,067 --> 00:06:44,570
Quando algo de mau
acontece a um dos colegas,

72
00:06:44,654 --> 00:06:46,614
que fica ferido ou morre,

73
00:06:47,490 --> 00:06:49,700
é uma coisa muito trágica.

74
00:06:49,784 --> 00:06:52,912
Para mim, agora, no trabalho que fazemos,

75
00:06:52,995 --> 00:06:58,835
é uma motivação
poder reduzir o número de vezes

76
00:06:58,918 --> 00:07:00,336
que isso acontece.

77
00:07:07,176 --> 00:07:08,886
No final dos anos 2000,

78
00:07:08,970 --> 00:07:11,556
houve um despertar
dentro do Departamento de Defesa

79
00:07:11,639 --> 00:07:15,351
para o que podemos chamar
a revolução robótica acidental.

80
00:07:15,893 --> 00:07:18,271
Enviámos milhares
de robôs aéreos e terrestres

81
00:07:18,354 --> 00:07:20,148
para o Iraque e o Afeganistão.

82
00:07:21,482 --> 00:07:24,068
Quando a administração Obama me pediu

83
00:07:24,152 --> 00:07:26,404
para ser Vice-Secretário da Defesa,

84
00:07:26,904 --> 00:07:31,117
a forma como a guerra
era travada estava a mudar.

85
00:07:32,452 --> 00:07:36,330
Usavam robôs onde teriam usado pessoas.

86
00:07:37,999 --> 00:07:40,376
Os primeiros sistemas
eram controlados à distância.

87
00:07:40,460 --> 00:07:45,173
Um humano controla-o
como um carro controlado à distância.

88
00:07:46,632 --> 00:07:51,512
Começaram a procurar bombas caseiras

89
00:07:52,013 --> 00:07:54,849
e, se a bomba explodia,
o robô também explodia.

90
00:07:57,393 --> 00:08:00,396
E diziam:
"Que chatice. Traz o outro robô."

91
00:08:02,273 --> 00:08:04,484
No Afeganistão, havia o drone Predator

92
00:08:05,276 --> 00:08:09,739
e tornou-se uma ferramenta muito útil
para os ataques aéreos.

93
00:08:13,117 --> 00:08:16,829
Os estrategas militares
começaram a questionar-se:

94
00:08:16,913 --> 00:08:20,791
"Para que mais podem ser usados os robôs?"
Aonde é que isto vai dar?"

95
00:08:20,875 --> 00:08:24,170
Um dos temas comuns
era a tendência para maior autonomia.

96
00:08:26,506 --> 00:08:30,635
Uma arma autónoma
toma decisões por conta própria,

97
00:08:30,718 --> 00:08:33,304
com pouca ou nenhuma intervenção humana.

98
00:08:33,387 --> 00:08:37,558
Tem uma capacidade independente
e é autodirigida.

99
00:08:38,434 --> 00:08:41,604
Consegue matar se estiver armada.

100
00:08:43,314 --> 00:08:47,026
Quando se tem cada vez mais
autonomia em todo o sistema,

101
00:08:47,109 --> 00:08:49,779
tudo começa a andar mais depressa.

102
00:08:51,989 --> 00:08:56,869
Quando andamos mais depressa
do que os adversários,

103
00:08:57,453 --> 00:09:01,165
é uma enorme vantagem na batalha.

104
00:09:03,960 --> 00:09:06,254
No que se refere à autonomia,
concentramo-nos

105
00:09:07,255 --> 00:09:09,966
em sistemas de inteligência
altamente resistentes.

106
00:09:12,051 --> 00:09:15,304
Sistemas que podem ler e reagir
com base no ambiente

107
00:09:15,805 --> 00:09:19,642
e tomar decisões
sobre como manobrar nesse mundo.

108
00:09:24,981 --> 00:09:29,151
Estas instalações foram construídas
como um estúdio de cinema

109
00:09:29,235 --> 00:09:30,611
que foi convertido

110
00:09:30,695 --> 00:09:34,156
para permitir ambientes
de treino militar realistas.

111
00:09:39,495 --> 00:09:43,291
Viemos avaliar o nosso piloto de IA.

112
00:09:44,625 --> 00:09:49,297
A sua missão será procurar ameaças.
Trata de forças de desminagem.

113
00:09:49,380 --> 00:09:52,800
Pode tomar uma decisão
sobre como lidar com esse problema.

114
00:09:55,428 --> 00:09:59,390
Chamamos a isto "o funil fatal".
Temos de passar por uma porta.

115
00:10:01,726 --> 00:10:03,311
É onde ficamos mais vulneráveis.

116
00:10:03,811 --> 00:10:05,146
Esta parece melhor.

117
00:10:07,106 --> 00:10:10,151
O Nova diz-nos
se há um atirador atrás daquela porta.

118
00:10:10,818 --> 00:10:12,653
Se há uma família atrás da porta.

119
00:10:15,114 --> 00:10:18,451
Vai permitir-nos a tomar
decisões melhores e proteger pessoas.

120
00:10:57,114 --> 00:10:59,367
Usamos os sensores de visão

121
00:10:59,450 --> 00:11:03,162
para perceber como é o ambiente.

122
00:11:04,997 --> 00:11:06,415
Um prédio de vários andares.

123
00:11:07,333 --> 00:11:08,334
Eis o mapa.

124
00:11:08,417 --> 00:11:11,671
Enquanto eu explorava,
eis o que vi e onde os vi.

125
00:11:19,929 --> 00:11:22,098
Detetor de pessoas. Que fixe.

126
00:11:23,891 --> 00:11:27,061
Um dos outros sensores do Nova
é um scanner térmico.

127
00:11:27,561 --> 00:11:30,690
Se são 37 graus,
talvez seja um ser humano.

128
00:11:32,358 --> 00:11:35,444
As pessoas são consideradas ameaças
até prova em contrário.

129
00:11:38,906 --> 00:11:43,244
Trata-se de eliminar a névoa da guerra
para tomar decisões melhores.

130
00:11:44,704 --> 00:11:46,539
Quando olhamos para o futuro,

131
00:11:47,039 --> 00:11:50,793
estamos a planear construir
equipas de aviões autónomos.

132
00:11:53,754 --> 00:11:55,631
Com os veículos autónomos,

133
00:11:55,715 --> 00:11:57,466
a pessoa disse-lhes:

134
00:11:57,550 --> 00:12:00,386
"Quero que vás do ponto A ao ponto B."

135
00:12:02,972 --> 00:12:06,475
Não pedimos aos nossos sistemas
para irem do ponto A ao ponto B,

136
00:12:06,559 --> 00:12:08,477
mas para atingirem um objetivo.

137
00:12:10,312 --> 00:12:13,190
É mais parecido com: "Preciso de leite."

138
00:12:13,274 --> 00:12:17,486
Depois o robô tem de descobrir
a que mercearia ir,

139
00:12:17,570 --> 00:12:20,239
obter o leite e trazê-lo de volta.

140
00:12:20,740 --> 00:12:22,074
Mais ainda,

141
00:12:22,158 --> 00:12:27,037
pode ser mais apropriado dizer:
"Mantém o frigorífico abastecido."

142
00:12:27,538 --> 00:12:29,457
Portanto, há um nível de inteligência

143
00:12:29,540 --> 00:12:32,168
para perceber do que precisamos
e como o fazemos.

144
00:12:32,251 --> 00:12:34,253
Se houver um desafio ou um problema

145
00:12:34,336 --> 00:12:37,381
ou surgir uma dificuldade,
descobre como resolver a situação.

146
00:12:40,801 --> 00:12:45,431
Quando decidi deixar a Marinha,
comecei a pensar:

147
00:12:45,514 --> 00:12:47,558
"Muito bem. O que se segue?"

148
00:12:49,143 --> 00:12:52,021
Cresci com a Internet.
Vi no que se tornou.

149
00:12:53,189 --> 00:12:55,608
E parte da conclusão a que cheguei

150
00:12:56,108 --> 00:12:58,861
foi que a IA em 2015

151
00:12:58,944 --> 00:13:02,907
estava no mesma situação
da Internet em 1991.

152
00:13:04,033 --> 00:13:06,285
A IA estava prestes a explodir

153
00:13:06,368 --> 00:13:09,747
e ser uma das tecnologias
mais poderosas do mundo.

154
00:13:11,791 --> 00:13:16,212
Trabalhando com ela todos os dias,
vejo o progresso que está a acontecer.

155
00:13:19,048 --> 00:13:22,051
Mas quando muita gente
pensa em inteligência artificial,

156
00:13:22,551 --> 00:13:25,221
pensa logo em Hollywood.

157
00:13:28,057 --> 00:13:29,975
Jogamos o jogo?

158
00:13:30,059 --> 00:13:35,314
Que tal Guerra Termonuclear Global?

159
00:13:35,898 --> 00:13:36,816
Está bem.

160
00:13:38,275 --> 00:13:40,861
Quando as pessoas pensam
na inteligência artificial,

161
00:13:40,945 --> 00:13:44,824
pensam em O Exterminador Implacável.
Ou no Eu, Robot.

162
00:13:45,574 --> 00:13:46,700
Desativar!

163
00:13:46,784 --> 00:13:48,160
O que sou eu?

164
00:13:48,244 --> 00:13:49,620
Ou no Matrix.

165
00:13:51,080 --> 00:13:53,749
Com base no que vemos
nos filmes de ficção científica,

166
00:13:53,833 --> 00:13:57,878
como sabem que sou humano?
Podia ser uma IA gerada por computador.

167
00:13:58,379 --> 00:14:02,174
Os replicantes são como qualquer máquina.
Ou são um benefício ou um perigo.

168
00:14:02,675 --> 00:14:06,095
Mas há muitas IA mais primitivas

169
00:14:06,178 --> 00:14:08,097
que vão mudar as nossas vidas

170
00:14:08,180 --> 00:14:11,851
muito antes de chegarmos à fase
do robô pensante e falante.

171
00:14:12,643 --> 00:14:15,771
Os robôs já cá estão.
Estão a tomar decisões.

172
00:14:15,855 --> 00:14:18,816
A revolução dos robôs chegou,

173
00:14:18,899 --> 00:14:22,319
mas não se parece com o que se imaginava.

174
00:14:23,320 --> 00:14:26,740
O Exterminador é uma unidade
de infiltração. Meio humano, meio máquina.

175
00:14:27,950 --> 00:14:31,370
Não falamos de um robô assassino
ao estilo do Exterminador.

176
00:14:31,871 --> 00:14:35,958
Falamos de uma IA capaz de fazer
algumas tarefas que os humanos fazem.

177
00:14:36,041 --> 00:14:39,879
Mas a preocupação
é se os sistemas são fiáveis.

178
00:14:40,462 --> 00:14:45,426
Mais detalhes do acidente de ontem à noite
com um SUV autónomo.

179
00:14:45,509 --> 00:14:48,762
A empresa criou um chatbot
de inteligência artificial.

180
00:14:48,846 --> 00:14:51,181
Ela adquiriu um tom bastante racista…

181
00:14:51,265 --> 00:14:55,394
Vinte e seis legisladores estaduais
falsamente identificados como criminosos.

182
00:14:57,438 --> 00:15:02,026
A questão é se conseguem lidar
com as complexidades do mundo real.

183
00:15:22,212 --> 00:15:24,006
O mundo físico é uma confusão.

184
00:15:25,174 --> 00:15:27,426
Há muitas coisas que não sabemos,

185
00:15:27,968 --> 00:15:30,763
o que dificulta o treino
de sistemas de IA.

186
00:15:33,098 --> 00:15:36,977
Foi quando os sistemas de aprendizagem
automática começaram a aparecer.

187
00:15:38,520 --> 00:15:41,440
A aprendizagem automática
foi um grande avanço,

188
00:15:42,024 --> 00:15:45,611
significa que não temos
de ensinar tudo aos computadores.

189
00:15:47,905 --> 00:15:52,409
Damos milhões de informações
a um computador

190
00:15:52,493 --> 00:15:54,453
e a máquina começa a aprender.

191
00:15:55,245 --> 00:15:57,289
Isso pode ser aplicado a qualquer coisa.

192
00:16:00,250 --> 00:16:02,962
No nosso projeto do Cão Robô,
estamos a tentar mostrar

193
00:16:03,045 --> 00:16:09,009
que o nosso cão pode
atravessar muitos terrenos diferentes.

194
00:16:10,052 --> 00:16:14,098
Os humanos evoluíram ao longo
de milhares de milhões de anos para andar,

195
00:16:14,932 --> 00:16:20,688
mas há muita inteligência
na adaptação a terrenos diferentes.

196
00:16:21,939 --> 00:16:24,316
A questão que se mantém
para os sistemas robóticos

197
00:16:24,400 --> 00:16:27,069
é se também se podem adaptar
como animais e humanos?

198
00:16:35,953 --> 00:16:40,582
Com a aprendizagem automática,
recolhemos muitos dados na simulação.

199
00:16:42,668 --> 00:16:45,838
Uma simulação
é um gémeo digital da realidade.

200
00:16:46,588 --> 00:16:52,052
Podemos ter muitas réplicas dessa
realidade em computadores diferentes.

201
00:16:53,178 --> 00:16:56,974
Analisam milhares de ações em simulação.

202
00:16:58,892 --> 00:17:02,229
O terreno que encontram
tem diferentes graus de derrapagem.

203
00:17:02,312 --> 00:17:03,856
Tem firmezas diferentes.

204
00:17:04,898 --> 00:17:08,318
Pegamos nas experiências
desses milhares de robôs

205
00:17:08,402 --> 00:17:13,282
da simulação e transferimo-las
para um sistema robótico real.

206
00:17:15,492 --> 00:17:20,039
O teste que vamos fazer hoje
é ver se se adapta a novos terrenos.

207
00:17:53,322 --> 00:17:55,491
Quando o robô passava por cima da espuma,

208
00:17:55,574 --> 00:17:58,577
os pés pisavam o chão com força.

209
00:17:59,369 --> 00:18:02,206
Mas não na superfície oleosa,

210
00:18:03,248 --> 00:18:06,460
estava a ajustar o movimento
para não escorregar.

211
00:18:08,670 --> 00:18:10,672
É aí que percebemos:

212
00:18:10,756 --> 00:18:14,051
"Esta é a contribuição
da aprendizagem automática."

213
00:18:41,161 --> 00:18:44,123
Achamos que o Cão Robô pode ser muito útil

214
00:18:44,206 --> 00:18:46,166
em cenários de resposta a desastres

215
00:18:46,250 --> 00:18:49,670
em que é preciso
lidar com vários tipos de terreno.

216
00:18:52,631 --> 00:18:57,427
Ou usar os cães
para vigilância em ambientes hostis.

217
00:19:15,696 --> 00:19:19,575
Mas a maioria das tecnologias
depara-se com o dilema

218
00:19:19,658 --> 00:19:22,369
de tanto poder fazer
coisas boas como coisas más.

219
00:19:24,079 --> 00:19:27,875
Por exemplo, podemos usar
a tecnologia nuclear para energia…

220
00:19:30,419 --> 00:19:33,797
… mas também podemos desenvolver
bombas atómicas, que são muito más.

221
00:19:35,090 --> 00:19:38,468
É o chamado problema da dupla utilização.

222
00:19:39,052 --> 00:19:40,929
O fogo é de dupla utilização.

223
00:19:41,722 --> 00:19:44,308
A inteligência humana
é de dupla utilização.

224
00:19:44,391 --> 00:19:48,645
Escusado será dizer
que a inteligência artificial também é.

225
00:19:49,354 --> 00:19:53,984
É muito importante
pensar no uso da IA no contexto certo.

226
00:19:54,693 --> 00:19:59,114
Porque sim, é fantástico
ter um robô de busca e salvamento.

227
00:19:59,198 --> 00:20:02,284
que ajuda a localizar alguém
após uma avalanche,

228
00:20:02,868 --> 00:20:05,871
mas esse mesmo robô
pode ser usado como uma arma.

229
00:20:15,088 --> 00:20:21,094
Quando vemos empresas
a usar robótica com armas,

230
00:20:21,178 --> 00:20:22,930
algo em nós se zanga.

231
00:20:23,931 --> 00:20:28,435
Parte disso é a constatação
de que, quando criamos a nossa tecnologia,

232
00:20:28,518 --> 00:20:30,103
isso acontecerá.

233
00:20:31,021 --> 00:20:34,441
É uma tecnologia transformadora.

234
00:20:36,235 --> 00:20:38,028
São sistemas de armas

235
00:20:38,111 --> 00:20:43,617
que podem mudar
a nossa segurança de forma dramática.

236
00:20:46,161 --> 00:20:51,500
Atualmente não temos a certeza
de que as máquinas consigam distinguir

237
00:20:51,583 --> 00:20:54,962
entre civis e combatentes.

238
00:21:01,885 --> 00:21:05,347
No início da guerra no Afeganistão,
integrei uma equipa de atiradores

239
00:21:05,430 --> 00:21:08,016
em busca de inimigos
a atravessar a fronteira.

240
00:21:09,685 --> 00:21:12,521
Enviaram uma menina
para investigar a nossa posição.

241
00:21:13,939 --> 00:21:17,067
Nunca nos ocorreu matar essa menina.

242
00:21:19,695 --> 00:21:22,864
Segundo as leis da guerra,
teria sido legal.

243
00:21:24,950 --> 00:21:27,369
Os combatentes inimigos
não têm uma idade mínima.

244
00:21:29,079 --> 00:21:33,417
Se construíssemos um robô
que cumprisse a lei da guerra,

245
00:21:33,500 --> 00:21:35,252
ele teria matado a menina.

246
00:21:36,420 --> 00:21:41,091
Como é que um robô sabe a diferença
entre o que é legal e o que é certo?

247
00:21:43,385 --> 00:21:46,054
Quando se trata de guerra
com drones autónomos,

248
00:21:46,138 --> 00:21:49,933
querem eliminar o mal
que causa aos soldados americanos

249
00:21:50,017 --> 00:21:51,601
e ao moral americano,

250
00:21:52,602 --> 00:21:57,149
mas há um aumento
de danos civis para os afegãos,

251
00:21:57,232 --> 00:21:58,775
iraquianos e somalis.

252
00:22:09,619 --> 00:22:14,416
Eu perguntaria aos que apoiam
o uso da IA em drones:

253
00:22:15,375 --> 00:22:18,211
"E se a vossa aldeia fosse vítima disso?"

254
00:22:23,550 --> 00:22:25,594
É uma faca de dois gumes.

255
00:22:26,595 --> 00:22:30,724
Pode ser usada para o bem
o que faríamos normalmente,

256
00:22:31,558 --> 00:22:33,477
mas basta ligar um interruptor

257
00:22:34,561 --> 00:22:38,023
e a tecnologia torna-se
potencialmente letal.

258
00:22:47,032 --> 00:22:48,533
Sou farmacêutico clínico.

259
00:22:49,618 --> 00:22:50,994
Tenho uma equipa

260
00:22:51,078 --> 00:22:54,247
que usa inteligência artificial
para descobrir fármacos

261
00:22:54,331 --> 00:22:57,751
que curarão doenças
que não estão a receber atenção.

262
00:22:59,711 --> 00:23:04,132
Dantes faziam-se ajustes
às moléculas de fármacos já existentes

263
00:23:04,216 --> 00:23:06,885
para descobrir fármacos novos.

264
00:23:08,261 --> 00:23:13,350
Agora desenvolvemos uma IA
que nos pode dar milhões de ideias,

265
00:23:13,892 --> 00:23:15,227
milhões de moléculas.

266
00:23:16,186 --> 00:23:19,231
Isso proporciona tantas possibilidades

267
00:23:19,314 --> 00:23:23,151
para tratar doenças
que nunca pudemos tratar.

268
00:23:25,153 --> 00:23:29,741
Mas há um lado sinistro
aonde eu nunca pensei ir parar.

269
00:23:33,161 --> 00:23:35,872
Tudo começou quando fui convidado

270
00:23:35,956 --> 00:23:40,043
por uma organização na Suíça,
o Laboratório Spiez,

271
00:23:40,544 --> 00:23:44,423
para dar uma palestra
sobre o uso indevido da IA.

272
00:23:48,343 --> 00:23:51,221
O Sean mandou-me
um e-mail com algumas ideias

273
00:23:51,304 --> 00:23:55,308
de como podemos usar mal
a nossa inteligência artificial.

274
00:23:56,059 --> 00:24:00,355
Em vez de pedirmos ao nosso modelo para
criar moléculas parecidas com fármacos

275
00:24:00,439 --> 00:24:02,274
para tratar doenças,

276
00:24:02,774 --> 00:24:06,403
vamos ver se conseguimos gerar
as moléculas mais tóxicas de todas.

277
00:24:10,198 --> 00:24:11,491
Eu queria determinar

278
00:24:11,575 --> 00:24:15,203
se podemos usar a tecnologia de IA
para criar moléculas mortais?

279
00:24:17,414 --> 00:24:20,083
Para ser sincero, pensámos que ia falhar,

280
00:24:20,167 --> 00:24:24,504
porque tudo o que fizemos
foi transformar um 0 num 1.

281
00:24:26,715 --> 00:24:30,385
Ao invertê-lo,
em vez de nos afastarmos da toxicidade,

282
00:24:30,469 --> 00:24:32,220
dirigimo-nos para ela.

283
00:24:32,721 --> 00:24:33,555
E pronto.

284
00:24:37,517 --> 00:24:40,729
Enquanto eu estava em casa,
o computador trabalhava.

285
00:24:41,521 --> 00:24:44,816
Estava a avançar,
gerando milhares de moléculas,

286
00:24:45,650 --> 00:24:49,529
e não tínhamos de fazer nada
além de premir "avançar".

287
00:24:54,493 --> 00:24:58,330
Na manhã seguinte,
havia um ficheiro no meu computador

288
00:24:59,080 --> 00:25:03,376
que continha cerca de 40 mil moléculas

289
00:25:03,460 --> 00:25:05,253
que eram potencialmente

290
00:25:05,337 --> 00:25:08,882
das moléculas mais tóxicas
que se conhecem.

291
00:25:10,217 --> 00:25:12,761
Os pelos da minha nuca eriçaram-se.

292
00:25:13,386 --> 00:25:14,554
Fiquei sem fala.

293
00:25:15,388 --> 00:25:19,017
O computador fez
dezenas de milhares de ideias

294
00:25:19,100 --> 00:25:20,685
para novas armas químicas.

295
00:25:21,645 --> 00:25:26,274
Claro que temos moléculas
que parecem e são VX e análogos de VX

296
00:25:26,775 --> 00:25:27,609
nos dados.

297
00:25:28,360 --> 00:25:31,363
O VX é uma das armas químicas
mais potentes do mundo.

298
00:25:31,863 --> 00:25:33,573
Há novas alegações da Polícia

299
00:25:33,657 --> 00:25:37,786
de que as mulheres vistas a atacar
Kim Jong-nam neste homicídio no aeroporto

300
00:25:37,869 --> 00:25:41,248
usaram um agente nervoso
mortal chamado VX.

301
00:25:41,748 --> 00:25:44,417
Pode causar morte por asfixia.

302
00:25:45,043 --> 00:25:47,629
É uma molécula muito potente

303
00:25:47,712 --> 00:25:52,092
e a maioria destas moléculas
deveria ser ainda mais mortal do que VX.

304
00:25:53,301 --> 00:25:56,972
Tanto quanto sabemos,
muitas delas nunca tinham sido vistas.

305
00:25:57,472 --> 00:26:02,310
Quando o Sean e eu percebemos isto,
pensámos: "O que fizemos nós?"

306
00:26:04,771 --> 00:26:09,192
Percebi logo que tínhamos aberto
a caixa de Pandora

307
00:26:09,901 --> 00:26:13,280
e disse: "Para.
Não faças mais nada. Acabámos.

308
00:26:13,905 --> 00:26:17,158
Imprime os diapositivos
de que preciso para a palestra."

309
00:26:19,202 --> 00:26:20,704
Quando fizemos a experiência,

310
00:26:20,787 --> 00:26:23,873
pensei:
"Qual é a pior coisa que pode acontecer?"

311
00:26:26,251 --> 00:26:30,255
Mas agora acho que fomos
completamente ingénuos ao fazê-lo.

312
00:26:33,466 --> 00:26:36,928
O que mais me aterroriza
é que qualquer pessoa pode fazer o mesmo.

313
00:26:38,930 --> 00:26:40,765
Basta ligar um interruptor.

314
00:26:42,934 --> 00:26:46,187
Como controlamos
esta tecnologia antes de ser usada

315
00:26:46,271 --> 00:26:50,942
para fazer algo totalmente destrutivo?

316
00:26:55,780 --> 00:27:00,285
No âmago da conversa
sobre inteligência artificial

317
00:27:00,368 --> 00:27:03,538
e como escolhemos usá-la na sociedade

318
00:27:04,289 --> 00:27:08,835
está uma corrida entre o poder
com o qual desenvolvemos tecnologias

319
00:27:08,918 --> 00:27:11,379
e o bom senso que temos para as governar.

320
00:27:13,340 --> 00:27:16,926
Há as implicações morais
e éticas evidentes

321
00:27:17,010 --> 00:27:20,138
de confiarmos à mesma coisa
que dá energia aos telemóveis

322
00:27:20,221 --> 00:27:23,433
com tomar a decisão moral de tirar vidas.

323
00:27:25,727 --> 00:27:31,191
Trabalho no Future of Life Institute,
uma comunidade de cientistas ativistas.

324
00:27:31,733 --> 00:27:33,443
Estamos a tentar demonstrar

325
00:27:33,526 --> 00:27:38,698
que existe este outro lado
da aceleração da automatização.

326
00:27:38,782 --> 00:27:42,619
Mas estamos a tentar assegurar
que as tecnologias que criamos

327
00:27:42,702 --> 00:27:45,038
são usadas de forma segura e ética.

328
00:27:46,247 --> 00:27:49,959
Vamos falar sobre as regras de combate

329
00:27:50,168 --> 00:27:54,005
e os códigos de conduta no uso da IA
nos nossos sistemas de armamento.

330
00:27:54,798 --> 00:27:59,135
Porque estamos a ver tecnologias
a entrar no campo de batalha

331
00:27:59,219 --> 00:28:01,680
que podem ser usadas
para matar com autonomia.

332
00:28:10,230 --> 00:28:15,110
Em 2021, a ONU divulgou
um relatório sobre o uso potencial

333
00:28:15,193 --> 00:28:19,364
de uma arma autónoma letal
no campo de batalha, na Líbia.

334
00:28:20,073 --> 00:28:23,910
A ONU disse que um drone
na guerra civil da Líbia no ano passado

335
00:28:23,993 --> 00:28:27,330
tinha sido programado
para atacar alvos com autonomia.

336
00:28:28,289 --> 00:28:31,209
Se os relatórios da ONU estiverem certos,

337
00:28:31,292 --> 00:28:34,963
terá sido um momento decisivo
para a humanidade.

338
00:28:35,046 --> 00:28:37,090
Porque assinala um caso

339
00:28:37,173 --> 00:28:42,137
em que uma IA tomou a decisão
de tirar uma vida, não um ser humano.

340
00:28:49,686 --> 00:28:51,688
Vemos armas autónomas de ponta

341
00:28:51,771 --> 00:28:55,150
começarem a ser usadas por todo o mundo.

342
00:28:56,276 --> 00:28:58,278
Houve relatos de Israel.

343
00:29:00,280 --> 00:29:05,702
O Azerbaijão usou sistemas autónomos
para alvejar as defesas aéreas arménias.

344
00:29:07,370 --> 00:29:09,998
Pode voar
pelo campo de batalha durante horas

345
00:29:10,081 --> 00:29:12,500
à procura de alvos para atacar sozinho,

346
00:29:12,584 --> 00:29:16,087
depois atacá-los
sem qualquer intervenção humana.

347
00:29:16,796 --> 00:29:18,298
Vimos recentemente

348
00:29:18,381 --> 00:29:21,760
uns vídeos publicados na Ucrânia.

349
00:29:23,303 --> 00:29:26,890
Não se sabe em que modo estavam
quando atacaram.

350
00:29:26,973 --> 00:29:30,393
Estava um humano
a escolher os alvos para atacar

351
00:29:30,477 --> 00:29:32,729
ou a máquina fê-lo sozinha?

352
00:29:32,812 --> 00:29:36,524
Mas sem dúvida que chegará um momento,

353
00:29:36,608 --> 00:29:40,195
quer já tenha acontecido na Líbia,
na Ucrânia ou noutro lugar,

354
00:29:40,278 --> 00:29:44,449
em que uma máquina decidirá
a quem matar no campo de batalha.

355
00:29:47,035 --> 00:29:50,997
As máquinas que exercem
poder letal sobre seres humanos

356
00:29:51,080 --> 00:29:53,374
sem intervenção humana

357
00:29:53,458 --> 00:29:57,337
são politicamente inaceitáveis
e moralmente repugnantes.

358
00:29:59,214 --> 00:30:01,299
Será que a comunidade internacional

359
00:30:01,382 --> 00:30:05,011
basta para governar esses desafios?

360
00:30:05,094 --> 00:30:06,888
É uma grande incógnita.

361
00:30:08,932 --> 00:30:12,685
Se olharmos para o futuro,
mesmo só daqui a uns anos,

362
00:30:12,769 --> 00:30:15,730
o cenário é aterrador,

363
00:30:16,564 --> 00:30:20,485
dado que a quantidade
de capital e recursos humanos

364
00:30:20,568 --> 00:30:23,404
investidos para tornar a IA mais poderosa

365
00:30:23,488 --> 00:30:26,950
e usá-la em tantas
aplicações diferentes é vasta.

366
00:30:39,254 --> 00:30:41,214
Meu Deus, este gajo.

367
00:30:41,756 --> 00:30:43,424
Ele sabe que não pode ganhar.

368
00:30:46,761 --> 00:30:51,099
Quando vejo a IA superar
problemas diferentes, acho inspirador.

369
00:30:51,683 --> 00:30:53,977
Esta é com o credo na boca.

370
00:30:54,477 --> 00:30:59,524
Podem aplicar-se essas mesmas táticas,
técnicas e processos a aeronaves reais.

371
00:31:01,401 --> 00:31:02,318
Belo jogo.

372
00:31:02,402 --> 00:31:03,653
Boa, belo jogo.

373
00:31:08,658 --> 00:31:09,909
Surpreende-me

374
00:31:09,993 --> 00:31:14,122
que as pessoas continuem a falar
do que a IA não pode fazer. Certo?

375
00:31:14,205 --> 00:31:17,166
"Nunca conseguirá vencer
um campeão mundial de xadrez."

376
00:31:20,211 --> 00:31:22,672
Um computador da IBM recuperou

377
00:31:22,755 --> 00:31:25,925
no segundo jogo com o campeão
mundial de xadrez, Garry Kasparov.

378
00:31:28,136 --> 00:31:30,847
Kasparov desistiu!

379
00:31:31,598 --> 00:31:34,642
Quando vejo algo
além da minha compreensão,

380
00:31:34,726 --> 00:31:38,062
tenho medo. E aquilo foi
muito além da minha compreensão.

381
00:31:39,355 --> 00:31:41,107
Depois as pessoas diziam:

382
00:31:41,190 --> 00:31:44,402
"Não conseguirá vencer
um campeão mundial no jogo de go."

383
00:31:44,485 --> 00:31:50,700
Acho que a intuição humana
ainda é muito avançada para a IA

384
00:31:50,783 --> 00:31:52,827
a conseguir apanhar.

385
00:31:55,330 --> 00:31:58,416
O go é um dos jogos mais complicados
que se pode aprender,

386
00:31:58,499 --> 00:32:02,211
porque a quantidade de jogadas
no tabuleiro, fazendo as contas,

387
00:32:02,295 --> 00:32:05,256
é maior do que
o número de átomos no universo.

388
00:32:06,799 --> 00:32:08,968
Havia uma equipa na Google
chamada DeepMind

389
00:32:09,052 --> 00:32:11,471
e criaram um programa chamado AlphaGo

390
00:32:11,554 --> 00:32:14,265
para derrotar
os melhores jogadores do mundo.

391
00:32:16,559 --> 00:32:18,394
Parabéns a…

392
00:32:18,478 --> 00:32:19,437
Ao AlphaGo.

393
00:32:19,520 --> 00:32:22,774
Um programa de computador
derrotou um profissional do nono dan.

394
00:32:25,610 --> 00:32:31,532
Depois a DeepMind escolheu o StarCraft
como o próximo desafio de IA.

395
00:32:33,743 --> 00:32:38,081
O StarCraft é talvez o jogo de estratégia
em tempo real mais popular de sempre.

396
00:32:40,333 --> 00:32:44,712
O AlphaStar ficou famoso quando começou
a derrotar os campeões do mundo.

397
00:32:45,338 --> 00:32:48,800
AlphaStar a aniquilar o Immortal Arc.

398
00:32:48,883 --> 00:32:49,717
Sabes que mais?

399
00:32:49,801 --> 00:32:52,553
Os profissionais
não poderão ganhar esta batalha.

400
00:32:53,680 --> 00:32:54,806
É algo ridículo.

401
00:32:57,642 --> 00:33:00,895
Os jogadores profissionais diziam:
"Eu não tentaria essa tática.

402
00:33:00,979 --> 00:33:04,816
Nunca tentaria essa estratégia.
É algo que não é humano."

403
00:33:07,151 --> 00:33:10,655
Esse foi talvez
o momento "eureca" para mim.

404
00:33:13,574 --> 00:33:16,661
Percebi que a altura certa era agora.

405
00:33:17,412 --> 00:33:21,082
Há uma tecnologia importante
e uma hipótese de marcar uma diferença.

406
00:33:24,502 --> 00:33:29,382
Eu só conhecia os problemas de um SEAL
no combate a curta distância,

407
00:33:30,383 --> 00:33:34,470
mas um dos meus amigos
que era piloto de F-18 disse-me:

408
00:33:34,554 --> 00:33:37,724
"Temos o mesmo problema
na comunidade de caças a jato.

409
00:33:37,807 --> 00:33:39,434
Bloqueiam as comunicações.

410
00:33:39,517 --> 00:33:44,439
Há muitos mísseis terra-ar
e é demasiado perigoso combater lá."

411
00:33:47,483 --> 00:33:50,987
Imaginem se houvesse um avião de combate
comandado por uma IA.

412
00:33:51,070 --> 00:33:52,739
Bem-vindos às provas AlphaDogfight.

413
00:33:52,822 --> 00:33:56,159
Estamos a poucos minutos
da primeira semifinal.

414
00:33:56,242 --> 00:33:59,871
A DARPA, a Agência de Projetos
de Investigação Avançados,

415
00:33:59,954 --> 00:34:03,624
tinha visto o AlphaGo e o AlphaStar

416
00:34:04,292 --> 00:34:08,171
e surgiu a ideia
do concurso AlphaDogfight.

417
00:34:09,005 --> 00:34:11,466
É o que queremos
que os pilotos humanos façam.

418
00:34:11,549 --> 00:34:13,593
Parece um combate aéreo humano.

419
00:34:15,595 --> 00:34:19,057
O combate aéreo
é um duelo entre dois caças.

420
00:34:19,849 --> 00:34:22,852
É como um combate de boxe no céu.

421
00:34:23,853 --> 00:34:26,314
Talvez tenham visto o filme Top Gun.

422
00:34:26,397 --> 00:34:27,815
Não podemos fugir-lhes?

423
00:34:28,649 --> 00:34:31,277
- Não aos mísseis e canhões.
- Então é um combate aéreo.

424
00:34:35,531 --> 00:34:39,410
Aprender a dominar combates aéreos
pode demorar oito a dez anos.

425
00:34:42,288 --> 00:34:46,209
É um desafio muito complexo para a IA.

426
00:34:54,092 --> 00:34:58,679
As tentativas anteriores de autonomia
nos combates aéreos não foram robustas.

427
00:34:59,222 --> 00:35:03,017
Achámos que a aprendizagem automática
era a forma de resolver este problema.

428
00:35:04,477 --> 00:35:08,189
No início, a IA não sabia nada
sobre o mundo em que a metemos.

429
00:35:08,272 --> 00:35:11,025
Não sabia que estava a voar
nem o que era um combate.

430
00:35:11,109 --> 00:35:12,735
Não sabia o que era um F-16.

431
00:35:13,236 --> 00:35:15,905
Só sabia as ações que tinha disponíveis

432
00:35:15,988 --> 00:35:18,407
e começou a explorá-las aleatoriamente.

433
00:35:19,325 --> 00:35:23,204
O avião azul
está a treinar há pouco tempo.

434
00:35:23,287 --> 00:35:25,832
Nota-se que baloiça
para a frente e para trás,

435
00:35:26,624 --> 00:35:30,545
voa de forma muito errática
e afasta-se do adversário.

436
00:35:31,587 --> 00:35:32,755
O combate avança

437
00:35:32,839 --> 00:35:36,134
e vemos o azul começar
a estabelecer o plano de jogo.

438
00:35:36,676 --> 00:35:38,636
Está mais em posição de disparar.

439
00:35:39,178 --> 00:35:41,305
Por vezes
o algoritmo de aprendizagem dizia:

440
00:35:41,389 --> 00:35:43,891
"Muito bem. Toma um biscoito.
Faz isso mais vezes."

441
00:35:45,143 --> 00:35:49,147
Podemos aproveitar o poder do computador
e treinar os agentes muitas vezes

442
00:35:49,230 --> 00:35:50,064
em paralelo.

443
00:35:51,357 --> 00:35:52,775
Como uma equipa de básquete.

444
00:35:53,276 --> 00:35:55,778
Em vez de jogar
com a mesma equipa vezes sem conta,

445
00:35:55,862 --> 00:35:59,198
viajamos pelo mundo
a jogar com 512 equipas diferentes,

446
00:35:59,699 --> 00:36:00,950
todas ao mesmo tempo.

447
00:36:01,492 --> 00:36:03,452
Podemos melhorar muito depressa.

448
00:36:04,162 --> 00:36:07,456
Fizemos essa simulação 24 horas
por dia, todos os dias,

449
00:36:07,540 --> 00:36:11,919
e obtivemos 30 anos
de formação de pilotos em dez meses.

450
00:36:12,879 --> 00:36:15,673
Passámos de mal saber pilotar o avião

451
00:36:15,756 --> 00:36:17,717
a ser um assassino a sangue-frio.

452
00:36:19,010 --> 00:36:23,514
No treino, competimos apenas
com outra inteligência artificial.

453
00:36:24,473 --> 00:36:28,561
Mas competir contra humanos
era o objetivo final.

454
00:36:34,192 --> 00:36:35,610
Chamo-me Mike Benitez

455
00:36:36,110 --> 00:36:38,362
e sou tenente-coronel
da Força Aérea dos EUA,

456
00:36:39,155 --> 00:36:41,157
no ativo há cerca de 25 anos.

457
00:36:42,825 --> 00:36:44,869
Fiz 250 missões de combate

458
00:36:45,578 --> 00:36:47,538
e sou formado pela escola de armas,

459
00:36:48,039 --> 00:36:49,832
a versão da Força Aérea do Top Gun.

460
00:36:52,627 --> 00:36:55,171
Nunca voei
contra uma inteligência artificial.

461
00:36:55,254 --> 00:36:58,549
Estou ansioso por ver se me saio bem.

462
00:36:59,634 --> 00:37:03,054
Temos preparado um ataque
a 1800 m, frente a frente.

463
00:37:04,388 --> 00:37:05,223
Começa o combate.

464
00:37:13,314 --> 00:37:14,148
Já se foi.

465
00:37:14,732 --> 00:37:16,651
Muito interessante.

466
00:37:20,780 --> 00:37:23,658
- Morto.
- Apanhou-o. Vitória impecável.

467
00:37:25,910 --> 00:37:27,453
Muito bem, segundo assalto.

468
00:37:35,461 --> 00:37:40,508
A inteligência artificial
está a manobrar com tanta precisão

469
00:37:41,384 --> 00:37:43,219
que não a consigo acompanhar.

470
00:37:48,474 --> 00:37:49,725
Mesmo na mira.

471
00:37:50,309 --> 00:37:51,894
Agora já foste.

472
00:37:53,145 --> 00:37:53,980
Apanhou-o!

473
00:37:54,063 --> 00:37:55,022
Ainda me apanhou.

474
00:37:58,567 --> 00:38:00,069
A IA nunca tem medo.

475
00:38:00,736 --> 00:38:03,781
Há um elemento emocional humano
no cockpit que a IA não tem.

476
00:38:04,991 --> 00:38:08,077
Uma das estratégias
mais interessantes da nossa IA

477
00:38:08,160 --> 00:38:10,121
foi o chamado tiro frontal.

478
00:38:10,621 --> 00:38:14,000
Um humano só quer dispara de trás

479
00:38:14,083 --> 00:38:16,377
porque não se conseguem livrar de nós.

480
00:38:17,044 --> 00:38:20,381
Não tentamos tiros frontais
porque é uma guerra de nervos.

481
00:38:21,424 --> 00:38:25,511
Quando nos deparamos frente a frente
a uma distância de 900 m ou 150 m,

482
00:38:25,594 --> 00:38:27,096
pode acontecer num ápice.

483
00:38:27,596 --> 00:38:31,183
Há um grande risco de colisão,
por isso os humanos não tentam.

484
00:38:32,893 --> 00:38:35,938
A IA só receia a morte
se lhe disserem para o fazer.

485
00:38:37,857 --> 00:38:40,234
Parece que estou a lutar contra um humano

486
00:38:40,776 --> 00:38:44,113
que não quer saber da segurança.

487
00:38:45,489 --> 00:38:47,325
Não vai sobreviver a este último.

488
00:38:57,168 --> 00:38:58,461
Não tem tempo suficiente.

489
00:39:01,964 --> 00:39:02,965
Boa noite.

490
00:39:04,091 --> 00:39:04,925
Estou morto.

491
00:39:16,812 --> 00:39:17,980
Fico sensibilizado

492
00:39:18,064 --> 00:39:20,900
por saber que talvez eu não seja
o melhor para a missão

493
00:39:21,484 --> 00:39:24,320
e que aquilo me poderá substituir um dia.

494
00:39:25,696 --> 00:39:26,906
Os mesmos 1800.

495
00:39:27,615 --> 00:39:28,824
Compensa 300.

496
00:39:29,450 --> 00:39:32,078
Com este piloto de IA
a comandar aviões de caça,

497
00:39:32,828 --> 00:39:34,830
a vitória é implacável e dominante.

498
00:39:34,914 --> 00:39:37,249
Não só ganha por muito.

499
00:39:37,333 --> 00:39:41,545
É tão poderoso
que o queremos pôr nos nossos aviões.

500
00:39:43,672 --> 00:39:47,802
Creio que a IA vai pilotar um F-16

501
00:39:47,885 --> 00:39:49,970
e que não vai demorar muito.

502
00:39:51,305 --> 00:39:56,769
Se enfrentarmos um piloto de IA
com uma taxa de vitória de 99,99999 %,

503
00:39:56,852 --> 00:39:58,646
não temos hipótese.

504
00:39:59,605 --> 00:40:02,733
Quando penso
que um piloto de IA é imbatível,

505
00:40:02,817 --> 00:40:06,695
penso no que uma equipa de 50, cem

506
00:40:07,279 --> 00:40:12,535
ou mil pilotos de IA poderá conseguir.

507
00:40:13,702 --> 00:40:17,415
Um enxame é uma equipa de aeronaves
altamente inteligentes

508
00:40:17,498 --> 00:40:18,791
a trabalhar em conjunto.

509
00:40:19,291 --> 00:40:23,462
Partilham informações sobre o que fazer,
como resolver um problema.

510
00:40:25,172 --> 00:40:30,469
Os exames serão uma competência
revolucionária de transformação

511
00:40:30,553 --> 00:40:32,638
para os nossos militares e aliados.

512
00:41:42,750 --> 00:41:47,379
O alvo foi detetado e os drones seguem-no.

513
00:42:02,019 --> 00:42:03,604
Muito bem, vão aterrar.

514
00:42:07,566 --> 00:42:10,402
O objetivo principal
da pesquisa de enxames atual

515
00:42:11,153 --> 00:42:13,697
é destacar um grande número de drones

516
00:42:13,781 --> 00:42:17,910
numa área de difícil acesso ou perigosa.

517
00:42:21,705 --> 00:42:26,085
O Laboratório de Pesquisa do Exército
tem apoiado este projeto de investigação.

518
00:42:26,919 --> 00:42:28,963
Se queremos saber o que está em dado sítio

519
00:42:29,046 --> 00:42:32,883
mas é difícil lá chegar
ou é uma área muito grande,

520
00:42:33,676 --> 00:42:35,886
destacar um enxame
é uma forma muito natural

521
00:42:35,970 --> 00:42:38,389
de aumentar o alcance dos indivíduos

522
00:42:38,472 --> 00:42:41,934
e recolher informações
essenciais para a missão.

523
00:42:46,689 --> 00:42:48,983
Atualmente, quando destacamos um enxame,

524
00:42:49,066 --> 00:42:53,904
damos uma ordem única
para seguir o alvo de interesse.

525
00:42:54,488 --> 00:42:57,283
E os drones fazem isso sozinhos.

526
00:42:59,493 --> 00:43:04,081
A inteligência artificial permite que
os robôs se movam coletivamente em enxame

527
00:43:04,164 --> 00:43:05,708
de forma descentralizada.

528
00:43:10,671 --> 00:43:12,506
Nos enxames da natureza

529
00:43:13,299 --> 00:43:18,178
não há um líder,
um animal principal a dar indicações.

530
00:43:20,556 --> 00:43:25,019
O comportamento vem de cada animal,

531
00:43:25,102 --> 00:43:27,104
seguindo umas regras simples.

532
00:43:27,688 --> 00:43:32,443
O comportamento coletivo emergente
que vemos vem daí.

533
00:43:33,944 --> 00:43:37,031
O que é admirável nos enxames da natureza

534
00:43:37,114 --> 00:43:39,992
é a elegância com que se movem.

535
00:43:40,576 --> 00:43:44,288
Como se tivessem sido feitos
para integrar o grupo.

536
00:43:46,790 --> 00:43:51,128
O que gostaríamos de ver
no nosso enxame de drones,

537
00:43:51,211 --> 00:43:53,172
como nos enxames da natureza,

538
00:43:53,672 --> 00:43:56,717
são decisões tomadas
pelo grupo coletivamente.

539
00:43:59,928 --> 00:44:02,765
A outra fonte de inspiração para nós

540
00:44:02,848 --> 00:44:06,268
vem da robustez e resistência.

541
00:44:07,311 --> 00:44:09,188
O enxame não cai

542
00:44:09,271 --> 00:44:13,567
se um dado animal
não fizer o que devia fazer.

543
00:44:15,194 --> 00:44:18,697
Mesmo que um dos agentes caia, falhe

544
00:44:18,781 --> 00:44:20,866
ou não consiga completar a tarefa,

545
00:44:21,909 --> 00:44:23,369
o enxame continua.

546
00:44:25,204 --> 00:44:27,873
Em última análise, é isso que queremos.

547
00:44:29,333 --> 00:44:33,879
Nos cenários de combate,
precisamos de identificar aviões inimigos

548
00:44:33,962 --> 00:44:37,841
e dantes uma pessoa era necessária
para controlar um robô.

549
00:44:38,592 --> 00:44:40,552
Com o aumento da autonomia,

550
00:44:40,636 --> 00:44:43,555
antecipo que haja
um grande número de robôs

551
00:44:43,639 --> 00:44:46,558
a ser controlado
por um número muito pequeno de pessoas.

552
00:44:47,851 --> 00:44:50,854
Não vejo razão para não chegarmos aos mil,

553
00:44:51,355 --> 00:44:54,942
pois cada agente agirá com independência

554
00:44:55,025 --> 00:44:56,443
e não há limites.

555
00:44:57,027 --> 00:44:59,071
Podemos aumentar a aprendizagem…

556
00:44:59,154 --> 00:45:03,325
Trabalhamos com simulações
de enxames há bastante tempo

557
00:45:03,409 --> 00:45:06,829
e são horas de passarmos
às aeronaves reais.

558
00:45:07,329 --> 00:45:12,042
Esperamos controlar três robôs
ao mesmo tempo pela rede,

559
00:45:12,126 --> 00:45:15,129
depois acrescentar mais competências.

560
00:45:15,879 --> 00:45:18,549
Queremos testá-lo em sistemas menores,

561
00:45:18,632 --> 00:45:22,261
mas usar os mesmos conceitos
e aplicá-los a sistemas maiores,

562
00:45:22,344 --> 00:45:23,679
como um caça a jato.

563
00:45:24,596 --> 00:45:26,014
Falamos muito

564
00:45:26,098 --> 00:45:31,937
em dar a um pelotão
o poder de combate de um batalhão.

565
00:45:34,982 --> 00:45:39,528
Ou dar a um batalhão
o poder de combate de uma brigada.

566
00:45:39,611 --> 00:45:41,488
Podemos fazer isso com enxames.

567
00:45:42,614 --> 00:45:45,200
Quando se liberta o poder do enxame,

568
00:45:45,284 --> 00:45:49,455
criamos uma nova estratégia
de dissuasão à agressão militar.

569
00:45:52,332 --> 00:45:57,004
Acho que o mais empolgante
é o número de vidas jovens

570
00:45:57,087 --> 00:46:00,299
que salvaremos se fizermos isto bem

571
00:46:01,091 --> 00:46:03,594
e trocarmos máquinas

572
00:46:04,553 --> 00:46:05,846
em vez de vidas humanas.

573
00:46:06,638 --> 00:46:10,893
Há quem diga que as armas autónomas
tornarão a guerra mais precisa

574
00:46:10,976 --> 00:46:12,311
e compassiva,

575
00:46:12,853 --> 00:46:15,397
mas é difícil antecipar com exatidão

576
00:46:15,481 --> 00:46:19,443
a forma como as armas autónomas
mudarão a guerra.

577
00:46:21,320 --> 00:46:23,238
Como a invenção da metralhadora Gatling.

578
00:46:25,073 --> 00:46:26,700
Richard Gatling era um inventor

579
00:46:27,201 --> 00:46:30,954
que viu soldados a regressar feridos
da Guerra Civil Americana.

580
00:46:32,289 --> 00:46:35,292
Ele quis encontrar formas
de tornar a guerra mais compassiva.

581
00:46:36,293 --> 00:46:39,797
Reduzir o número
de soldados mortos na guerra

582
00:46:40,422 --> 00:46:42,633
pondo menos soldados no campo de batalha.

583
00:46:44,092 --> 00:46:48,388
Por isso inventou a metralhadora Gatling,
uma arma automática com manivela

584
00:46:48,472 --> 00:46:50,516
que automatizava os disparos.

585
00:46:53,268 --> 00:46:57,981
Aumentava cem vezes
os disparos dos soldados.

586
00:47:01,235 --> 00:47:05,239
Muitas vezes, os esforços
para tornar a guerra mais compassiva

587
00:47:06,490 --> 00:47:07,991
têm o efeito contrário.

588
00:47:10,160 --> 00:47:13,455
Pensem no efeito
de um ataque de drone errante

589
00:47:13,539 --> 00:47:17,209
numa zona rural que insurge
a população local contra os EUA

590
00:47:17,292 --> 00:47:20,712
e o governo local. Os "bons".

591
00:47:22,589 --> 00:47:25,008
Agora multipliquem isso por mil.

592
00:47:26,802 --> 00:47:28,720
A criação de um sistema de armas

593
00:47:28,804 --> 00:47:34,560
que é barato, expansível
e não exija operadores humanos

594
00:47:34,643 --> 00:47:37,896
muda radicalmente
os limites reais do conflito.

595
00:47:40,107 --> 00:47:44,486
Perco sono a pensar num mundo
em que a guerra é omnipresente

596
00:47:44,987 --> 00:47:48,657
e já não suportamos
o custo humano e financeiro da guerra,

597
00:47:48,740 --> 00:47:51,410
porque estamos tão afastados

598
00:47:52,369 --> 00:47:54,037
das vidas que se perdem.

599
00:47:59,501 --> 00:48:01,420
Isto tudo me atormenta.

600
00:48:02,212 --> 00:48:05,924
Só precisava de um exemplo do uso
indevido da inteligência artificial.

601
00:48:06,800 --> 00:48:10,888
As consequências imprevistas
dessa simples experiência mental

602
00:48:10,971 --> 00:48:12,848
foram longe de mais.

603
00:48:13,348 --> 00:48:16,226
IA NA DESCOBERTA DE FÁRMACOS:
EVITAR FAZER MAIS MAL QUE BEM

604
00:48:17,352 --> 00:48:18,729
Quando dei a palestra

605
00:48:18,812 --> 00:48:22,107
sobre as moléculas tóxicas
criadas pela tecnologia de IA,

606
00:48:22,608 --> 00:48:24,318
o público ficou estupefacto.

607
00:48:25,402 --> 00:48:27,613
5000 COMPONENTES ERAM ANÁLOGOS AO VX

608
00:48:29,406 --> 00:48:33,577
A decisão seguinte
foi se devíamos publicar a informação.

609
00:48:34,912 --> 00:48:36,914
Por um lado, queremos avisar o mundo

610
00:48:36,997 --> 00:48:40,125
sobre estas capacidades, mas, por outro,

611
00:48:40,208 --> 00:48:44,087
não queremos dar uma ideia
a alguém que nunca a tenha tido.

612
00:48:46,381 --> 00:48:48,133
Decidimos que era melhor publicar

613
00:48:48,216 --> 00:48:52,679
para encontrar formas de minimizar
o uso indevido deste tipo de IA

614
00:48:52,763 --> 00:48:54,139
antes que aconteça.

615
00:48:54,222 --> 00:48:56,975
A UTILIZAÇÃO DUPLA
DA DESCOBERTA DE FÁRMACOS POR IA:

616
00:48:57,559 --> 00:49:00,437
COMO A TECNOLOGIA DE IA
PARA A DESCOBERTA DE FÁRMACOS

617
00:49:01,897 --> 00:49:04,775
A reação do público em geral foi chocante.

618
00:49:07,194 --> 00:49:10,656
Veem-se as métricas na página,
quantas pessoas a acederam.

619
00:49:10,739 --> 00:49:14,451
O tipo de artigos que costumamos escrever,
temos sorte se conseguirmos…

620
00:49:14,534 --> 00:49:19,831
Poucos milhares de pessoas leem o artigo
ao longo de um ou vários anos.

621
00:49:19,915 --> 00:49:22,084
Dez mil pessoas leram-no numa semana.

622
00:49:22,167 --> 00:49:25,337
Depois foram 20 mil, 30 mil, 40 mil

623
00:49:25,837 --> 00:49:28,715
e chegámos às dez mil pessoas diárias.

624
00:49:30,258 --> 00:49:33,512
Aparecemos no The Economist,
no Financial Times.

625
00:49:35,639 --> 00:49:39,977
A Radiolab contactou-nos.
Já ouvi falar da Radiolab!

626
00:49:41,937 --> 00:49:45,899
Depois as reações
tornaram-se numa coisa descontrolada.

627
00:49:49,778 --> 00:49:53,532
Quando vemos os tweets, são tipo:
"Meu Deus, podiam fazer coisa pior?"

628
00:49:54,324 --> 00:49:55,993
Porque fizeram isto?

629
00:50:01,164 --> 00:50:04,501
Depois recebemos um convite
que eu nunca teria previsto.

630
00:50:08,797 --> 00:50:12,926
Houve muito debate
na Casa Branca sobre o artigo

631
00:50:13,010 --> 00:50:15,345
e quiseram falar connosco com urgência.

632
00:50:18,849 --> 00:50:20,809
Claro que é uma incrível honra

633
00:50:20,892 --> 00:50:23,020
poder falar com pessoas a esse nível.

634
00:50:23,603 --> 00:50:25,272
Mas depois assimilámos.

635
00:50:25,355 --> 00:50:28,900
"Meu Deus, é a Casa Branca. O chefe."

636
00:50:29,693 --> 00:50:33,196
Tratou de reunir conjuntos de dados
que eram de código aberto…

637
00:50:33,280 --> 00:50:37,701
Em cerca de seis horas,
o modelo conseguiu gerar cerca de 40 mil…

638
00:50:37,784 --> 00:50:41,038
Fizeram perguntas
sobre a potência informática necessária

639
00:50:41,872 --> 00:50:43,832
e dissemos que não era nada de especial.

640
00:50:44,332 --> 00:50:48,211
Um Mac vulgar com seis anos.

641
00:50:49,546 --> 00:50:51,256
Ficaram abismados.

642
00:50:54,968 --> 00:50:59,473
Os responsáveis
pela compreensão dos agentes químicos

643
00:50:59,556 --> 00:51:04,019
das agências governamentais
não faziam ideia desse potencial.

644
00:51:06,605 --> 00:51:09,816
Temos um livro de receitas
para fazer armas químicas

645
00:51:10,650 --> 00:51:15,572
e, nas mãos erradas com más intenções,

646
00:51:16,573 --> 00:51:18,992
pode ser verdadeiramente horrível.

647
00:51:21,703 --> 00:51:23,205
Há que prestar atenção

648
00:51:23,288 --> 00:51:26,458
e tomar medidas para regular a tecnologia

649
00:51:27,250 --> 00:51:30,670
ou restringi-la de forma
a não permitir o seu uso indevido.

650
00:51:31,880 --> 00:51:35,175
Porque o potencial das fatalidades

651
00:51:36,176 --> 00:51:37,344
é aterrador.

652
00:51:40,680 --> 00:51:45,977
A questão da ética da IA
é abordada em grande parte pela sociedade,

653
00:51:46,561 --> 00:51:50,273
não pelos engenheiros,
tecnólogos ou matemáticos.

654
00:51:52,484 --> 00:51:56,822
Cada tecnologia
que apresentamos, cada inovação,

655
00:51:56,905 --> 00:52:00,617
acaba por ser sujeita à forma
como a sociedade acha que a devemos usar.

656
00:52:03,036 --> 00:52:06,498
Atualmente o Departamento de Defesa diz:

657
00:52:06,581 --> 00:52:09,960
"A única coisa que diz que vamos matar

658
00:52:10,043 --> 00:52:11,920
no campo de batalha é um ser humano."

659
00:52:12,504 --> 00:52:14,548
Uma máquina pode matar,

660
00:52:15,674 --> 00:52:18,927
mas só a mando de um operador humano

661
00:52:19,636 --> 00:52:21,429
e não creio que isso venha a mudar.

662
00:52:24,808 --> 00:52:28,103
Garantem-nos de que este tipo
de tecnologia é seguro.

663
00:52:29,729 --> 00:52:33,692
Mas as forças armadas dos EUA não têm
uma reputação suficientemente fiável

664
00:52:33,775 --> 00:52:35,485
na guerra de drones.

665
00:52:36,820 --> 00:52:41,783
Quando se trata de confiar a IA
às forças armadas dos EUA,

666
00:52:41,867 --> 00:52:44,953
eu diria que o historial fala por si.

667
00:52:46,288 --> 00:52:50,125
A política do Departamento de Defesa
dos EUA sobre o uso de armas autónomas

668
00:52:50,208 --> 00:52:52,919
não proíbe qualquer sistema de armas.

669
00:52:53,003 --> 00:52:56,715
Mesmo que os militares
não queiram armas autónomas,

670
00:52:56,798 --> 00:53:01,678
prevê-se que entreguem
cada vez mais decisões às máquinas

671
00:53:01,761 --> 00:53:03,680
só para acompanhar os adversários.

672
00:53:04,764 --> 00:53:08,351
Isso pode levar os militares
a automatizar decisões

673
00:53:08,435 --> 00:53:09,978
contra a sua vontade.

674
00:53:12,022 --> 00:53:16,693
Vladimir Putin disse:
"Quem liderar na IA vai liderar o mundo."

675
00:53:17,736 --> 00:53:23,325
O Presidente Xi deixou claro que a IA
é uma das principais tecnologias

676
00:53:23,408 --> 00:53:25,702
que a China quer dominar.

677
00:53:26,786 --> 00:53:29,831
Estamos numa corrida tecnológica.

678
00:53:33,501 --> 00:53:35,670
Ouvimos falar de barreiras de segurança

679
00:53:36,463 --> 00:53:39,424
e acho que é isso
que as pessoas devem fazer.

680
00:53:40,467 --> 00:53:45,180
Mas há uma autêntica corrida
à superioridade da IA.

681
00:53:47,265 --> 00:53:51,603
E os nossos adversários,
sejam a China, a Rússia ou o Irão,

682
00:53:52,187 --> 00:53:56,566
estão-se a marimbar
para a nossa política de IA.

683
00:54:00,820 --> 00:54:04,324
Há muito mais conversas
sobre a política de IA

684
00:54:06,117 --> 00:54:09,287
mas eu gostaria que mais líderes pensassem

685
00:54:09,371 --> 00:54:11,706
na rapidez com que a podem construir.

686
00:54:12,707 --> 00:54:15,168
"Vamos dar-lhe recursos e construí-la."

687
00:54:18,922 --> 00:54:21,299
ENCONTRO E EXPOSIÇÃO ANUAL DA AUSA

688
00:54:24,177 --> 00:54:26,805
EXÉRCITO DOS EUA

689
00:54:33,478 --> 00:54:38,358
Estamos na maior feira anual
da Associação do Exército dos EUA.

690
00:54:39,609 --> 00:54:44,572
Qualquer empresa que vende produtos
ou tecnologias às forças armadas

691
00:54:44,656 --> 00:54:46,616
estará a expor.

692
00:54:47,701 --> 00:54:50,537
A Base Aérea de Tyndall
tem quatro dos nossos robôs

693
00:54:50,620 --> 00:54:53,748
a patrulhar diariamente a base,
24 horas por dia.

694
00:54:55,750 --> 00:55:00,130
Podemos acrescentar tudo:
câmaras, sensores e tudo o que precisarem.

695
00:55:00,213 --> 00:55:05,135
Braços manipuladores. Tudo para completar
a missão que o cliente deseja.

696
00:55:06,678 --> 00:55:08,638
E se o inimigo começar a usar IA?

697
00:55:09,431 --> 00:55:12,976
Um sistema de combate que pensa e reage

698
00:55:13,059 --> 00:55:16,062
mais depressa do que um ser humano.
Temos de estar prontos.

699
00:55:17,605 --> 00:55:21,359
Treinamos os nossos sistemas
para recolher informações sobre o inimigo,

700
00:55:22,027 --> 00:55:26,531
gerindo alvos inimigos com humanos
a supervisionar a cadeia de destruição.

701
00:55:33,288 --> 00:55:34,956
- Olá, general.
- Tudo bem?

702
00:55:35,040 --> 00:55:36,416
Tudo. Como está?

703
00:55:37,709 --> 00:55:40,962
Só direi que ninguém
está a investir mais num piloto de IA.

704
00:55:41,046 --> 00:55:43,214
O nosso piloto de IA chama-se Hivemind

705
00:55:43,298 --> 00:55:47,135
e aplicámo-lo ao nosso quadricóptero Nova.
Entra nos edifícios e explora-os

706
00:55:47,218 --> 00:55:49,387
à frente das forças
das operações especiais

707
00:55:49,471 --> 00:55:50,805
e de infantaria.

708
00:55:50,889 --> 00:55:52,891
Vamos aplicar o Hivemind ao V-BAT.

709
00:55:52,974 --> 00:55:56,811
Penso em destacar centenas dessas equipas,

710
00:55:56,895 --> 00:55:58,730
seja no Estreito de Taiwan

711
00:55:58,813 --> 00:56:01,608
ou na Ucrânia, a dissuadir os adversários.

712
00:56:01,691 --> 00:56:03,360
Estou muito empolgado.

713
00:56:03,943 --> 00:56:06,196
- Muito bem. Obrigado.
- Obrigado, general.

714
00:56:07,989 --> 00:56:13,370
Os pilotos de IA devem ser omnipresentes
e isso deve acontecer até 2025 ou 2030.

715
00:56:14,204 --> 00:56:17,582
A sua assimilação será rápida
nos exércitos de todo o mundo.

716
00:56:19,250 --> 00:56:22,962
O que faz no Exército romeno,
sistemas aéreos autónomos?

717
00:56:23,046 --> 00:56:24,589
Alta tecnologia no exército.

718
00:56:25,256 --> 00:56:29,803
Gastámos 500 milhões de dólares
para construir um piloto de IA.

719
00:56:29,886 --> 00:56:33,181
Gastaremos mais mil milhões de dólares
nos próximos cinco anos.

720
00:56:33,264 --> 00:56:37,769
É um dos principais motivos pelos quais
estamos a ganhar os programas nos EUA.

721
00:56:37,852 --> 00:56:38,853
Muito bem.

722
00:56:38,937 --> 00:56:42,732
Impressionante.
Conseguiram transformar isso numa arma?

723
00:56:43,650 --> 00:56:45,568
Ainda não está armado.

724
00:56:45,652 --> 00:56:48,321
Ainda não. Mas no futuro, sim.

725
00:56:48,905 --> 00:56:52,534
Os nossos clientes veem um camião.
Nós vemos um camião inteligente

726
00:56:52,617 --> 00:56:54,452
que faz muitas coisas diferentes.

727
00:56:54,536 --> 00:56:55,703
Obrigado, meu amigo.

728
00:56:55,787 --> 00:56:57,914
Entrarei em contacto consigo.

729
00:57:01,668 --> 00:57:04,129
Se voltarem daqui a dez anos,

730
00:57:04,212 --> 00:57:10,802
verão que a IA e a autonomia
terão dominado este mercado.

731
00:57:14,889 --> 00:57:19,352
As forças apoiadas
pela IA e pela autonomia

732
00:57:19,436 --> 00:57:25,108
dominarão, aniquilarão
e destruirão as outras forças armadas.

733
00:57:26,401 --> 00:57:30,780
Será o equivalente
de cavalos a enfrentar tanques

734
00:57:31,781 --> 00:57:34,367
ou pessoas com espadas
a enfrentar metralhadoras.

735
00:57:34,909 --> 00:57:37,120
Não terão hipótese.

736
00:57:38,746 --> 00:57:42,750
Tornar-se-á omnipresente,
usada em todos os tipos de guerra,

737
00:57:43,585 --> 00:57:44,836
a nível tático

738
00:57:45,336 --> 00:57:46,546
e estratégico,

739
00:57:47,172 --> 00:57:50,800
a velocidades que os humanos
ainda nem conseguem imaginar.

740
00:57:53,094 --> 00:57:57,098
Os comandantes já estão sobrecarregados
com demasiada informação.

741
00:57:57,599 --> 00:58:01,019
Imagens de satélites, drones e sensores.

742
00:58:02,103 --> 00:58:03,396
Uma das coisas que a IA faz

743
00:58:03,480 --> 00:58:06,774
é ajudar o comandante
a perceber mais depressa o que se passa.

744
00:58:07,650 --> 00:58:09,903
E depois: "Que decisões devo tomar?"

745
00:58:11,237 --> 00:58:14,866
A inteligência artificial
levará em conta todos os fatores

746
00:58:14,949 --> 00:58:17,702
que decidem a forma de travar uma guerra,

747
00:58:18,286 --> 00:58:20,246
conceber estratégias…

748
00:58:22,540 --> 00:58:25,668
… e fazer recomendações
sobre como ganhar a batalha.

749
00:58:32,217 --> 00:58:34,344
CENTRO DE INOVAÇÃO

750
00:58:36,971 --> 00:58:40,266
A Lockheed Martin, tal como
o Departamento de Defesa, cliente nosso,

751
00:58:40,350 --> 00:58:43,770
vê a inteligência artificial
como um catalisador tecnológico

752
00:58:43,853 --> 00:58:45,104
para comandar e controlar.

753
00:58:47,065 --> 00:58:50,109
A taxa de propagação média
é de 60 cm por segundo.

754
00:58:50,193 --> 00:58:52,278
O perímetro são cerca de 280 hectares.

755
00:58:52,779 --> 00:58:55,782
A névoa da guerra é real para nós
que trabalhamos na defesa,

756
00:58:57,158 --> 00:59:00,495
mas é semelhante ao ambiente

757
00:59:00,578 --> 00:59:03,206
e às decisões relacionadas
com os incêndios florestais.

758
00:59:03,289 --> 00:59:06,543
O incêndio de Washburn
fica a norte da cidade de Wawona.

759
00:59:06,626 --> 00:59:09,629
Temos de tomar decisões
com dados insuficientes.

760
00:59:10,630 --> 00:59:14,300
Como pode a IA ajudar
com a névoa da guerra?

761
00:59:17,637 --> 00:59:19,597
Os incêndios florestais são caóticos.

762
00:59:20,181 --> 00:59:21,266
São muito complexos

763
00:59:22,267 --> 00:59:26,354
e estamos a tentar usar
a inteligência artificial

764
00:59:26,437 --> 00:59:27,855
para ajudar nas decisões.

765
00:59:31,442 --> 00:59:33,987
O Gestor Cognitivo de Missão
é um programa nosso

766
00:59:34,070 --> 00:59:37,949
que grava vídeo aéreo de infravermelhos

767
00:59:38,032 --> 00:59:41,786
e o processa
através dos nossos algoritmos de IA

768
00:59:41,869 --> 00:59:45,248
para prever o estado futuro do incêndio.

769
00:59:48,042 --> 00:59:49,794
No futuro,

770
00:59:49,877 --> 00:59:52,922
o Gestor Cognitivo de Missão
fará simulações,

771
00:59:53,006 --> 00:59:57,093
executando cenários em milhares de ciclos

772
00:59:57,176 --> 01:00:00,722
para recomendar a forma
mais eficaz de utilizar os recursos,

773
01:00:00,805 --> 01:00:04,058
para suprimir
as zonas prioritárias de fogo.

774
01:00:08,062 --> 01:00:12,400
Dirá: "Façam uma supressão aérea
com um Firehawk aqui.

775
01:00:13,568 --> 01:00:15,903
Peguem nas equipas do solo
e desmatem aqui.

776
01:00:16,946 --> 01:00:19,032
Usem bombeiros com mangueiras aqui

777
01:00:19,657 --> 01:00:23,077
e levem-nos para as zonas prioritárias."

778
01:00:26,289 --> 01:00:29,292
Essas decisões
poderão ser geradas com maior rapidez

779
01:00:29,375 --> 01:00:31,044
e eficiência.

780
01:00:35,840 --> 01:00:38,468
Vemos a IA como uma forma única
para os humanos

781
01:00:38,551 --> 01:00:42,305
conseguirem acompanhar
o ambiente em constante mudança.

782
01:00:43,389 --> 01:00:46,517
Há uma série de parâmetros comparáveis

783
01:00:46,601 --> 01:00:50,355
ao que estamos habituados
na Lockheed Martin, no lado da defesa.

784
01:00:52,231 --> 01:00:55,860
As Forças Armadas
já não falam só em usar a IA

785
01:00:55,943 --> 01:01:00,323
e sistemas de armas individuais para
tomar decisões sobre alvos e destruição,

786
01:01:00,865 --> 01:01:02,200
mas em integrar a IA

787
01:01:02,283 --> 01:01:05,787
na arquitetura da tomada de decisões
das Forças Armadas.

788
01:01:09,457 --> 01:01:12,960
O Exército tem um grande projeto
chamado Project Convergence.

789
01:01:14,545 --> 01:01:16,589
A Marinha tem o Overmatch

790
01:01:16,673 --> 01:01:19,592
e a Força Aérea tem
o Sistema de Gestão de Combate Avançado.

791
01:01:21,886 --> 01:01:24,138
O Departamento de Defesa tenta perceber:

792
01:01:24,222 --> 01:01:26,683
"Como juntamos todas estas peças

793
01:01:26,766 --> 01:01:29,268
para operar mais depressa
do que os adversários

794
01:01:30,395 --> 01:01:32,355
e conseguir uma vantagem?"

795
01:01:33,481 --> 01:01:37,527
Um Gestor de Combate de IA
seria um general de alto escalão

796
01:01:37,610 --> 01:01:39,821
encarregado da batalha.

797
01:01:41,155 --> 01:01:44,158
A ajudar a dar ordens
a um grande número de forças,

798
01:01:45,118 --> 01:01:48,955
a coordenar as ações
de todas as armas em campo,

799
01:01:49,038 --> 01:01:51,958
a uma velocidade que nenhum humano
poderia acompanhar.

800
01:01:53,543 --> 01:01:55,294
Passámos os últimos 70 anos

801
01:01:55,378 --> 01:01:58,798
a construir o exército
mais sofisticado do planeta

802
01:01:58,881 --> 01:02:04,595
e agora enfrentamos a decisão
de ceder o controlo dessa infraestrutura

803
01:02:04,679 --> 01:02:07,598
a um algoritmo, um programa informático.

804
01:02:10,351 --> 01:02:13,187
As consequências dessa decisão

805
01:02:13,271 --> 01:02:16,774
poderão desencadear a totalidade
dos nossos arsenais militares em peso.

806
01:02:16,858 --> 01:02:19,902
Não é uma Hiroshima. São centenas.

807
01:02:25,616 --> 01:02:27,869
Temos de agir agora,

808
01:02:27,952 --> 01:02:33,166
porque a oportunidade para conter o risco
está a desaparecer rapidamente.

809
01:02:35,126 --> 01:02:39,338
Começamos esta tarde
com os desafios da segurança internacional

810
01:02:39,422 --> 01:02:41,132
das tecnologias emergentes

811
01:02:41,215 --> 01:02:44,343
na área dos sistemas
de armas autónomas letais.

812
01:02:44,427 --> 01:02:47,722
A conversa está a ter lugar
nas Nações Unidas

813
01:02:47,805 --> 01:02:50,016
sobre a ameaça de armas autónomas letais.

814
01:02:50,600 --> 01:02:56,564
e a proibição dos sistemas que usem
IA para identificar pessoas como alvos.

815
01:02:56,647 --> 01:03:00,777
O consenso entre os tecnólogos
é claro e retumbante.

816
01:03:00,860 --> 01:03:04,030
Opomo-nos a armas autónomas
que visem humanos.

817
01:03:05,615 --> 01:03:08,993
Há anos que os Estados debatem a questão

818
01:03:09,076 --> 01:03:11,329
dos sistemas letais de armas autónomas.

819
01:03:12,288 --> 01:03:16,793
Trata-se de um conceito
de segurança partilhada.

820
01:03:17,794 --> 01:03:20,546
Mas claro que não é fácil.

821
01:03:21,297 --> 01:03:25,968
Certos países,
sobretudo as potências militares,

822
01:03:26,052 --> 01:03:27,762
querem estar à frente na tecnologia

823
01:03:28,429 --> 01:03:31,599
para estarem à frente dos adversários.

824
01:03:32,600 --> 01:03:36,187
O problema é que todos têm de concordar
para que se faça alguma coisa.

825
01:03:36,896 --> 01:03:39,065
Haverá pelo menos um país que se opõe

826
01:03:39,148 --> 01:03:42,109
e os Estados Unidos
e a Rússia já deixaram claro

827
01:03:42,193 --> 01:03:45,655
que se opõem a um tratado
que proíba as armas autónomas.

828
01:03:47,198 --> 01:03:53,204
Quando pensamos no número de pessoas
a trabalhar para tornar a IA mais potente,

829
01:03:54,747 --> 01:03:56,457
a sala está a abarrotar.

830
01:03:57,750 --> 01:04:02,880
Quando pensamos na sala das pessoas
que garante que a IA seja segura,

831
01:04:04,340 --> 01:04:07,510
a sala tem muito menos gente.

832
01:04:11,764 --> 01:04:13,724
Mas também sou muito otimista.

833
01:04:16,060 --> 01:04:19,480
Penso na Convenção de Armas Biológicas,

834
01:04:19,564 --> 01:04:22,358
que aconteceu no meio da Guerra Fria,

835
01:04:23,025 --> 01:04:27,655
apesar da tensão entre a União Soviética
e os Estados Unidos.

836
01:04:29,156 --> 01:04:33,536
Conseguiram perceber
que o desenvolvimento de armas biológicas

837
01:04:33,619 --> 01:04:36,247
não interessava a nenhuma das duas nações

838
01:04:36,330 --> 01:04:38,749
nem ao mundo em geral.

839
01:04:41,335 --> 01:04:45,131
As corridas às armas dão mais importância
à velocidade do que à segurança.

840
01:04:45,715 --> 01:04:48,342
Mas acho que é importante ter em conta

841
01:04:48,426 --> 01:04:52,430
que, a certa altura, o custo do excesso
de velocidade se torna demasiado alto.

842
01:04:56,225 --> 01:04:59,270
Não podemos
desenvolver as coisas isoladamente

843
01:05:00,021 --> 01:05:06,611
e produzi-las sem pensar
aonde podem ir para no futuro.

844
01:05:07,862 --> 01:05:10,823
Temos de evitar
o momento da bomba atómica.

845
01:05:14,577 --> 01:05:17,705
As apostas na corrida à IA são enormes.

846
01:05:18,289 --> 01:05:22,001
Acho que pouca gente
imagina a estabilidade global

847
01:05:22,084 --> 01:05:28,174
que foi proporcionada
por uma força militar superior

848
01:05:28,257 --> 01:05:31,135
nos últimos 75 anos.

849
01:05:32,887 --> 01:05:35,681
Por isso os Estados Unidos
e as nossas forças aliadas

850
01:05:36,557 --> 01:05:38,684
têm de superar a IA dos adversários.

851
01:05:43,314 --> 01:05:45,441
Na guerra não há segundo lugar.

852
01:05:45,524 --> 01:05:49,111
A China traçou um plano ambicioso
para ser líder mundial em IA até 2030.

853
01:05:49,195 --> 01:05:51,656
Há quem diga que a América está a perder…

854
01:05:52,740 --> 01:05:56,160
Vai acelerar a adoção
de inteligência artificial

855
01:05:56,243 --> 01:05:59,246
para garantir a nossa vantagem militar.

856
01:06:02,875 --> 01:06:05,461
Estamos a avançar com esta tecnologia.

857
01:06:05,544 --> 01:06:08,673
Acho que não está claro até onde iremos.

858
01:06:09,507 --> 01:06:12,760
Nós controlamos a tecnologia
ou é ela que nos controla?

859
01:06:14,136 --> 01:06:16,973
Não haverá segundas oportunidades.

860
01:06:17,807 --> 01:06:20,977
Quando se abre
a caixa de Pandora, fica aberta.

861
01:06:22,019 --> 01:06:25,189
É muito difícil voltar a fechá-la.

862
01:06:28,609 --> 01:06:31,737
Se não agirmos agora, será tarde de mais.

863
01:06:33,114 --> 01:06:34,657
Talvez já seja tarde de mais.

864
01:08:48,124 --> 01:08:53,254
Legendas: Rodrigo Vaz



