1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
Acho a inteligência artificial fascinante.

4
00:00:28,361 --> 00:00:31,489
Certo, circulando. Boa formação.

5
00:00:33,116 --> 00:00:36,703
A IA tem potencial
para eliminar a pobreza,

6
00:00:36,786 --> 00:00:38,705
criar novos medicamentos

7
00:00:39,330 --> 00:00:41,583
e tornar o mundo ainda mais pacífico.

8
00:00:46,087 --> 00:00:46,921
Bom trabalho.

9
00:00:49,883 --> 00:00:53,428
Mas há muitos riscos pelo caminho.

10
00:01:04,773 --> 00:01:09,611
Com a IA, estamos criando
uma inteligência não humana

11
00:01:09,694 --> 00:01:11,863
que é muito imprevisível.

12
00:01:14,407 --> 00:01:16,451
À medida que fica mais poderosa,

13
00:01:16,534 --> 00:01:19,746
quais limites vamos impor
à inteligência artificial

14
00:01:19,829 --> 00:01:22,665
em relação a como queremos ou não a usar?

15
00:01:25,001 --> 00:01:28,505
E o melhor lugar
para iniciarmos essa conversa

16
00:01:28,588 --> 00:01:31,049
são as aplicações militares.

17
00:01:34,010 --> 00:01:38,890
O campo de batalha agora é domínio
do software e do hardware.

18
00:01:41,059 --> 00:01:42,936
Alvo obtido.

19
00:01:43,019 --> 00:01:48,399
E os militares correm para desenvolver
uma IA antes dos adversários.

20
00:01:49,526 --> 00:01:50,360
Morri.

21
00:01:53,780 --> 00:01:58,326
Caminhamos para um mundo
em que não só grandes exércitos,

22
00:01:58,409 --> 00:02:02,997
mas também agentes não governamentais,
empresas privadas

23
00:02:03,081 --> 00:02:06,042
e até o departamento de polícia local

24
00:02:06,543 --> 00:02:10,046
podem usar essas armas
capazes de matar com autonomia.

25
00:02:12,006 --> 00:02:17,303
Vamos ceder a decisão de tirar uma vida
a algoritmos, a um software de computador?

26
00:02:18,638 --> 00:02:21,516
É uma das questões mais urgentes
do nosso tempo.

27
00:02:23,935 --> 00:02:26,354
E, se não forem usadas com sabedoria,

28
00:02:26,437 --> 00:02:30,275
representam um risco enorme
para todas as pessoas do mundo.

29
00:02:41,828 --> 00:02:44,914
EXPLORANDO O DESCONHECIDO:

30
00:02:46,833 --> 00:02:50,086
ROBÔS ASSASSINOS

31
00:03:28,291 --> 00:03:30,168
Bom trabalho, pessoal.

32
00:03:59,948 --> 00:04:02,200
A lente é mais ampla que a anterior.

33
00:04:02,283 --> 00:04:03,117
É mesmo?

34
00:04:03,201 --> 00:04:04,786
Dá para ver mais dados.

35
00:04:05,286 --> 00:04:06,287
Bacana.

36
00:04:07,538 --> 00:04:11,167
Na Shield AI,
estamos desenvolvendo uma IA piloto,

37
00:04:11,251 --> 00:04:14,879
composta por tecnologia
de direção autônoma

38
00:04:14,963 --> 00:04:16,631
capaz de pilotar aeronaves.

39
00:04:19,300 --> 00:04:21,719
Quando falamos de uma IA piloto,

40
00:04:21,803 --> 00:04:25,139
significa dar mais autonomia
a uma aeronave.

41
00:04:25,223 --> 00:04:27,850
Ela seria capaz
de resolver problemas sozinha.

42
00:04:29,602 --> 00:04:32,355
O Nova é um quadricóptero autônomo

43
00:04:32,438 --> 00:04:35,942
que explora edifícios
e estruturas subterrâneas

44
00:04:36,859 --> 00:04:41,322
antes das unidades de reconhecimento
para mostrar o que há nesses espaços.

45
00:04:41,906 --> 00:04:45,618
Dá para ver que melhorou muito
desde a última vez.

46
00:04:45,702 --> 00:04:47,870
Fizemos mudanças na exploração

47
00:04:47,954 --> 00:04:50,248
relacionada à divisão por andares.

48
00:04:50,331 --> 00:04:53,584
Ele termina todos os cômodos
antes de ir para o próximo andar.

49
00:04:54,294 --> 00:04:56,796
- Incrível.
- Fizemos mudanças…

50
00:04:56,879 --> 00:04:58,548
Muita gente me pergunta

51
00:04:58,631 --> 00:05:02,468
por que a inteligência artificial
é um recurso importante.

52
00:05:02,552 --> 00:05:06,973
Isso me lembra das missões
que eu realizava.

53
00:05:09,142 --> 00:05:10,935
Servi sete anos na Marinha.

54
00:05:11,561 --> 00:05:15,273
Eu era das Forças Especiais
e servi duas vezes no Afeganistão

55
00:05:15,356 --> 00:05:17,191
e uma no Pacífico.

56
00:05:18,026 --> 00:05:22,947
Às vezes, tínhamos que vasculhar
150 complexos ou edifícios diferentes.

57
00:05:30,913 --> 00:05:34,250
Saber combater
em ambientes confinados é essencial.

58
00:05:35,293 --> 00:05:39,172
Tiroteio à curta distância
dentro de prédios.

59
00:05:41,466 --> 00:05:42,967
O inimigo atirando.

60
00:05:43,468 --> 00:05:46,471
Possíveis explosivos caseiros
dentro dos prédios.

61
00:05:49,015 --> 00:05:55,229
É a situação mais perigosa que qualquer um
das forças de operações especiais,

62
00:05:55,313 --> 00:05:58,358
de qualquer infantaria,
pode enfrentar no combate.

63
00:05:58,441 --> 00:05:59,275
Sem dúvida.

64
00:06:12,497 --> 00:06:16,334
Vou ser eternamente grato
pelo tempo que servi na Marinha.

65
00:06:17,168 --> 00:06:22,423
São momentos e lembranças que,
quando paro para pensar,

66
00:06:22,507 --> 00:06:24,592
me emociono.

67
00:06:28,346 --> 00:06:32,725
É clichê dizer que a liberdade
não é de graça, mas acredito nisso.

68
00:06:33,559 --> 00:06:37,105
Já senti na pele, exige muito sacrifício.

69
00:06:38,022 --> 00:06:38,856
Desculpe.

70
00:06:41,067 --> 00:06:44,570
Quando algo ruim
acontece com um de seus colegas,

71
00:06:44,654 --> 00:06:46,614
seja ele ferido ou morto,

72
00:06:47,490 --> 00:06:49,700
é muito trágico.

73
00:06:49,784 --> 00:06:52,912
Agora, pensando no trabalho que fazemos,

74
00:06:52,995 --> 00:06:58,835
é motivador conseguir reduzir
o número de vezes

75
00:06:58,918 --> 00:07:00,336
em que isso acontece.

76
00:07:07,176 --> 00:07:08,886
No final dos anos 2000,

77
00:07:08,970 --> 00:07:11,556
o Departamento de Defesa passou

78
00:07:11,639 --> 00:07:15,351
por uma espécie
de revolução robótica acidental.

79
00:07:15,893 --> 00:07:19,564
Enviamos ao Iraque e Afeganistão
milhares de robôs aéreos e terrestres.

80
00:07:21,482 --> 00:07:24,068
Quando o governo Obama me pediu

81
00:07:24,152 --> 00:07:26,404
para ser vice-secretário da Defesa,

82
00:07:26,904 --> 00:07:31,117
a forma como guerras eram travadas
estava mudando.

83
00:07:32,452 --> 00:07:36,330
Em vez de pessoas,
robôs estavam sendo usados.

84
00:07:37,999 --> 00:07:40,376
Os primeiros eram controlados remotamente.

85
00:07:40,460 --> 00:07:45,173
Tinha uma pessoa dirigindo, controlando,
como um carrinho de controle remoto.

86
00:07:46,632 --> 00:07:51,512
Começaram utilizando-os
contra artefatos explosivos improvisados.

87
00:07:52,013 --> 00:07:54,849
Se a bomba explodisse, o robô explodia.

88
00:07:57,393 --> 00:08:00,396
Era uma chatice,
mas daí era só pegar outro robô.

89
00:08:02,273 --> 00:08:04,484
No Afeganistão, tinha o drone Predator,

90
00:08:05,276 --> 00:08:09,739
uma ferramenta muito útil
em ataques aéreos.

91
00:08:13,117 --> 00:08:16,829
Com o tempo, estrategistas militares
começaram a se perguntar

92
00:08:16,913 --> 00:08:20,791
quais as possíveis novas aplicações
para robôs, até onde iriam.

93
00:08:20,875 --> 00:08:24,170
E um tópico comum
era a tendência para maior autonomia.

94
00:08:26,506 --> 00:08:30,635
Uma arma autônoma é aquela
que toma decisões por conta própria,

95
00:08:30,718 --> 00:08:33,304
com pouca ou nenhuma intervenção humana.

96
00:08:33,387 --> 00:08:37,558
Ela é independente, é autodirigida.

97
00:08:38,434 --> 00:08:41,646
E a capacidade de matar
depende de estar carregada ou não.

98
00:08:43,314 --> 00:08:47,026
Quando se tem cada vez mais autonomia
em todo o sistema,

99
00:08:47,109 --> 00:08:49,779
tudo começa a se mover
de forma mais rápida.

100
00:08:51,989 --> 00:08:56,869
E operar mais rápido que os adversários

101
00:08:57,453 --> 00:09:01,165
é uma vantagem enorme em uma batalha.

102
00:09:03,960 --> 00:09:06,254
Em relação à autonomia, nosso foco

103
00:09:07,255 --> 00:09:10,007
são sistemas inteligentes
altamente resistentes.

104
00:09:12,051 --> 00:09:15,304
São sistemas que podem avaliar e reagir
com base no ambiente,

105
00:09:15,805 --> 00:09:19,642
tomando decisões
sobre como operar naquele mundo.

106
00:09:24,981 --> 00:09:29,151
O local em que estamos
era um estúdio de cinema

107
00:09:29,235 --> 00:09:30,611
que foi convertido

108
00:09:30,695 --> 00:09:34,156
para emular ambientes realistas
de treinamento militar.

109
00:09:39,495 --> 00:09:43,291
Estamos aqui para avaliar nossa IA piloto.

110
00:09:44,625 --> 00:09:49,297
A missão é procurar ameaças,
fazer o reconhecimento do local.

111
00:09:49,380 --> 00:09:52,800
A IA pode tomar decisões
sobre como resolver problemas.

112
00:09:55,428 --> 00:09:59,390
Chamamos isto de "funil fatal".
Não tem como não passar pela porta.

113
00:10:01,726 --> 00:10:03,311
Ficamos muito vulneráveis.

114
00:10:03,811 --> 00:10:05,146
Este parece melhor.

115
00:10:07,106 --> 00:10:10,151
O Nova nos avisa
se há um atirador atrás da porta

116
00:10:10,818 --> 00:10:12,653
ou se há uma família.

117
00:10:15,114 --> 00:10:18,451
Com ele, tomamos decisões melhores
e mantemos pessoas seguras.

118
00:10:57,114 --> 00:10:59,367
Usamos os sensores de visão

119
00:10:59,450 --> 00:11:03,162
para entender como é o ambiente.

120
00:11:04,997 --> 00:11:06,415
Ele diz quantos andares,

121
00:11:07,333 --> 00:11:08,334
cria um mapa

122
00:11:08,417 --> 00:11:11,671
e mostrar o que e onde viu.

123
00:11:19,929 --> 00:11:22,098
Detector de pessoas. Boa.

124
00:11:23,891 --> 00:11:27,061
Um dos outros sensores do Nova
é um escâner térmico.

125
00:11:27,561 --> 00:11:30,690
Se está a 37°C,
provavelmente é uma pessoa.

126
00:11:32,358 --> 00:11:35,444
Elas são consideradas ameaças
até que se prove o contrário.

127
00:11:38,906 --> 00:11:43,244
Trata-se de eliminar incertezas
para tomarmos decisões melhores.

128
00:11:44,704 --> 00:11:46,539
E, pensando no futuro,

129
00:11:47,039 --> 00:11:50,793
pretendemos formar equipes
de aeronaves autônomas.

130
00:11:53,754 --> 00:11:55,631
Com veículos autônomos,

131
00:11:55,715 --> 00:11:57,466
a tarefa solicitada é:

132
00:11:57,550 --> 00:12:00,386
"Quero que vá do ponto A ao ponto B."

133
00:12:02,972 --> 00:12:06,475
Já nossos sistemas
não precisam ir do ponto A ao B,

134
00:12:06,559 --> 00:12:08,477
mas precisam atingir um objetivo.

135
00:12:10,312 --> 00:12:13,190
É mais parecido com: "Preciso de leite."

136
00:12:13,274 --> 00:12:17,486
Caberia ao robô descobrir
a qual mercado ir,

137
00:12:17,570 --> 00:12:20,239
pegar o leite e trazê-lo de volta.

138
00:12:20,740 --> 00:12:22,074
Mais do que isso,

139
00:12:22,158 --> 00:12:27,037
o comando seria mais parecido com:
"Mantenha a geladeira abastecida."

140
00:12:27,538 --> 00:12:29,457
Ou seja, é preciso inteligência

141
00:12:29,540 --> 00:12:32,168
para descobrir o que precisamos
e como fazemos.

142
00:12:32,251 --> 00:12:34,253
E, se surgir um desafio, um problema

143
00:12:34,336 --> 00:12:37,381
ou uma questão,
descobrir como mitigar isso.

144
00:12:40,801 --> 00:12:45,431
Quando decidi deixar a Marinha,
comecei a pensar

145
00:12:45,514 --> 00:12:47,558
no que faria a seguir.

146
00:12:49,143 --> 00:12:52,021
Cresci com a internet.
Vi no que se tornou.

147
00:12:53,189 --> 00:12:55,608
E parte da conclusão que cheguei foi

148
00:12:56,108 --> 00:12:58,861
que a IA em 2015

149
00:12:58,944 --> 00:13:02,907
era como a internet em 1991.

150
00:13:04,033 --> 00:13:06,285
A inteligência artificial estava pronta

151
00:13:06,368 --> 00:13:09,747
para ser uma das tecnologias
mais poderosas do mundo.

152
00:13:11,791 --> 00:13:16,212
Trabalhando com isso,
vejo o progresso que está sendo feito.

153
00:13:19,048 --> 00:13:22,051
Mas, para muita gente,
quando pensam em "IA",

154
00:13:22,551 --> 00:13:25,221
logo associam com Hollywood.

155
00:13:28,057 --> 00:13:29,975
Vamos jogar?

156
00:13:30,059 --> 00:13:35,314
Que tal Guerra Mundial Termonuclear?

157
00:13:35,898 --> 00:13:36,816
Certo.

158
00:13:38,275 --> 00:13:40,861
Quando se pensa em IA no geral,

159
00:13:40,945 --> 00:13:44,824
muitos se lembram de Eu, Robô
e O Exterminador do Futuro.

160
00:13:45,574 --> 00:13:46,700
Desativar.

161
00:13:46,784 --> 00:13:48,160
O que eu sou?

162
00:13:48,244 --> 00:13:49,620
Ou Matrix.

163
00:13:51,080 --> 00:13:53,749
Com base no que se vê
na ficção científica,

164
00:13:53,833 --> 00:13:57,878
como sabe que sou humano?
Posso ser apenas uma IA gerada por um PC.

165
00:13:58,379 --> 00:14:02,007
Replicantes são como qualquer máquina.
São benéficos ou nocivos.

166
00:14:02,675 --> 00:14:06,095
Mas tem muitos tipos
de IAs mais primitivas

167
00:14:06,178 --> 00:14:08,097
que ainda vão mudar nossas vidas

168
00:14:08,180 --> 00:14:11,851
bem antes de chegarmos
a um robô que pensa e fala.

169
00:14:12,643 --> 00:14:15,771
Os robôs estão aqui.
Os robôs estão tomando decisões.

170
00:14:15,855 --> 00:14:18,816
A revolução dos robôs chegou,

171
00:14:18,899 --> 00:14:22,319
só que não se parece
com o que imaginávamos.

172
00:14:23,320 --> 00:14:26,740
Ele é uma unidade de infiltração.
Parte homem, parte máquina.

173
00:14:27,950 --> 00:14:31,370
Não se trata de um robô assassino
como o Exterminador,

174
00:14:31,871 --> 00:14:35,958
mas sim de IAs que podem fazer
algumas tarefas que humanos fazem.

175
00:14:36,041 --> 00:14:39,879
A preocupação é
se esses sistemas são confiáveis.

176
00:14:40,462 --> 00:14:45,426
Novos detalhes sobre o acidente de ontem
envolvendo um carro autônomo da Uber.

177
00:14:45,509 --> 00:14:48,762
A empresa criou
um chatbot de inteligência artificial

178
00:14:48,846 --> 00:14:51,181
que acabou sendo racista…

179
00:14:51,265 --> 00:14:55,394
Vinte e seis deputados foram
falsamente identificados como criminosos.

180
00:14:57,438 --> 00:15:02,026
A questão é se as IAs conseguem lidar
com as complexidades do mundo real.

181
00:15:22,212 --> 00:15:24,006
O mundo real é muito confuso.

182
00:15:25,174 --> 00:15:27,426
Há muitas coisas que não sabemos,

183
00:15:27,968 --> 00:15:30,763
o que torna difícil
treinar sistemas de IA.

184
00:15:33,098 --> 00:15:36,977
É aí que entraram
os sistemas de aprendizado de máquina.

185
00:15:38,520 --> 00:15:41,440
O aprendizado de máquina
foi um grande avanço

186
00:15:42,024 --> 00:15:45,611
porque significa que não temos
que ensinar tudo aos computadores.

187
00:15:47,905 --> 00:15:52,409
Alimentamos o computador
com milhões de informações,

188
00:15:52,493 --> 00:15:54,453
e a máquina começa a aprender.

189
00:15:55,245 --> 00:15:57,289
Pode-se aplicar isso a qualquer coisa.

190
00:16:00,250 --> 00:16:02,962
No nosso projeto Robot Dog,
queremos mostrar

191
00:16:03,045 --> 00:16:09,009
que ele pode andar
por muitos terrenos diversos.

192
00:16:10,052 --> 00:16:14,098
Ao longo de bilhões de anos,
humanos evoluíram até andar,

193
00:16:14,932 --> 00:16:20,688
mas se adaptar a diferentes terrenos
envolve muita inteligência.

194
00:16:21,939 --> 00:16:24,316
Quanto a sistemas robóticos, a dúvida é

195
00:16:24,400 --> 00:16:27,069
se conseguem se adaptar
como animais e humanos.

196
00:16:35,953 --> 00:16:40,582
Com o aprendizado de máquina,
coletamos muitos dados em simulações.

197
00:16:42,668 --> 00:16:45,838
Uma simulação é
um gêmeo digital da realidade.

198
00:16:46,588 --> 00:16:52,052
Podemos criar ocorrências da realidade
em computadores diferentes.

199
00:16:53,178 --> 00:16:56,974
Ele mostra milhares de ações na simulação.

200
00:16:58,892 --> 00:17:02,229
Os terrenos que encontram
são mais ou menos escorregadios.

201
00:17:02,312 --> 00:17:03,856
Têm maciez diferente.

202
00:17:04,898 --> 00:17:08,318
Pegamos todas essas experiências
de milhares de robôs

203
00:17:08,402 --> 00:17:13,282
a partir da simulação
e alimentamos um sistema robótico real.

204
00:17:15,492 --> 00:17:20,039
O teste que faremos hoje é para ver
se ele se adapta a novos terrenos.

205
00:17:53,322 --> 00:17:55,491
Quando o robô andou na espuma,

206
00:17:55,574 --> 00:17:58,577
ele batia os pés no chão.

207
00:17:59,369 --> 00:18:02,206
Quando chegou nessa superfície mista,

208
00:18:03,248 --> 00:18:06,460
ele tentou ajustar os movimentos
para não escorregar.

209
00:18:08,670 --> 00:18:10,672
É aí que a gente se dá conta

210
00:18:10,756 --> 00:18:14,051
que é isso que o aprendizado de máquina
tem a oferecer.

211
00:18:41,161 --> 00:18:44,123
Achamos que o Robot Dog
pode ser muito útil

212
00:18:44,206 --> 00:18:46,166
em situações de resgaste em desastres

213
00:18:46,250 --> 00:18:49,670
em que é necessário passar
por vários tipos de terrenos.

214
00:18:52,631 --> 00:18:57,427
Ou podemos usá-lo para fazer vigilância
em ambientes hostis.

215
00:19:15,696 --> 00:19:19,575
Mas a maioria das tecnologias
enfrenta o desafio

216
00:19:19,658 --> 00:19:22,369
de que pode fazer coisas boas
e também ruins.

217
00:19:24,079 --> 00:19:27,875
Por exemplo, podemos usar
tecnologia nuclear para obter energia…

218
00:19:30,419 --> 00:19:33,797
mas também para desenvolver
bombas atômicas, o que é ruim.

219
00:19:35,090 --> 00:19:38,468
Isso é conhecido
como o problema do duplo uso.

220
00:19:39,052 --> 00:19:40,929
O fogo tem duplo uso.

221
00:19:41,722 --> 00:19:44,308
A inteligência humana tem duplo uso.

222
00:19:44,391 --> 00:19:48,645
Então, é claro, a inteligência artificial
também tem duplo uso.

223
00:19:49,354 --> 00:19:53,984
É muito importante pensar
no contexto de uso da IA

224
00:19:54,693 --> 00:19:59,114
porque, claro, é ótimo ter
um robô de busca e resgate

225
00:19:59,198 --> 00:20:02,284
capaz de ajudar a localizar alguém
após uma avalanche,

226
00:20:02,868 --> 00:20:05,871
mas esse mesmo robô
pode ser usado como uma arma.

227
00:20:15,088 --> 00:20:21,094
Quando vemos empresas
usando robôs com armas de fogo,

228
00:20:21,178 --> 00:20:22,930
não tem como não sentir raiva.

229
00:20:23,931 --> 00:20:28,435
Mas é isso que vai acontecer
quando criamos

230
00:20:28,518 --> 00:20:30,103
a nossa tecnologia.

231
00:20:31,021 --> 00:20:34,441
É uma tecnologia transformadora.

232
00:20:36,235 --> 00:20:38,028
São sistemas de armas

233
00:20:38,111 --> 00:20:43,617
que podem mudar drasticamente
nossa proteção e segurança.

234
00:20:46,161 --> 00:20:51,500
Por ora, não temos certeza
se as máquinas conseguem mesmo

235
00:20:51,583 --> 00:20:54,962
distinguir entre civis e combatentes.

236
00:21:01,885 --> 00:21:05,597
No início da guerra no Afeganistão,
eu era um atirador de elite

237
00:21:05,681 --> 00:21:08,016
procurando inimigos na fronteira.

238
00:21:09,685 --> 00:21:12,521
E eles mandaram uma menina
para achar nossa posição.

239
00:21:13,939 --> 00:21:17,067
Nunca passou pela minha cabeça
atirar nessa menina.

240
00:21:19,695 --> 00:21:22,864
Pelas leis da guerra, teria sido legal.

241
00:21:24,950 --> 00:21:27,369
Não há uma idade limite para inimigos.

242
00:21:29,079 --> 00:21:33,417
Se construísse um robô
que cumprisse à risca a lei da guerra,

243
00:21:33,500 --> 00:21:35,252
ele teria atirado na menina.

244
00:21:36,420 --> 00:21:41,091
Como um robô saberia a diferença
entre o que é legal e o que é certo?

245
00:21:43,385 --> 00:21:46,054
Quando se trata
de drones de guerra autônomos,

246
00:21:46,138 --> 00:21:49,933
o objetivo é eliminar
os danos causados aos soldados

247
00:21:50,017 --> 00:21:51,601
e ao espírito americanos,

248
00:21:52,602 --> 00:21:57,149
mas isso aumenta
os danos causados a civis afegãos,

249
00:21:57,232 --> 00:21:58,775
iraquianos e somalis.

250
00:22:09,619 --> 00:22:14,416
Gostaria de saber se quem apoia
e confia no uso de IA em drones

251
00:22:15,375 --> 00:22:18,211
ficaria tranquilo em morar perto do alvo.

252
00:22:23,550 --> 00:22:25,594
A IA é uma faca de dois gumes.

253
00:22:26,595 --> 00:22:30,724
Pode ser usada para o bem,
que tem sido o uso mais comum,

254
00:22:31,558 --> 00:22:33,477
mas, em um piscar de olhos,

255
00:22:34,561 --> 00:22:38,023
a tecnologia pode se tornar algo
potencialmente letal.

256
00:22:47,032 --> 00:22:48,533
Sou farmacologista clínico.

257
00:22:49,618 --> 00:22:50,994
Coordeno uma equipe

258
00:22:51,078 --> 00:22:54,247
que usa a IA para descobrir medicamentos

259
00:22:54,331 --> 00:22:57,751
que vão curar doenças
que não recebem a devida atenção.

260
00:22:59,711 --> 00:23:04,132
Para descobrir novos medicamentos,
pegávamos moléculas existentes,

261
00:23:04,216 --> 00:23:06,885
fazíamos ajustes
e transformávamos em algo novo.

262
00:23:08,261 --> 00:23:13,350
Agora, desenvolvemos uma IA
que nos fornece milhões de ideias,

263
00:23:13,892 --> 00:23:15,227
milhões de moléculas,

264
00:23:16,186 --> 00:23:19,231
e que abre muitas possibilidades

265
00:23:19,314 --> 00:23:23,151
para tratar doenças
que nunca conseguimos tratar antes.

266
00:23:25,153 --> 00:23:28,448
Mas com certeza tem um lado sombrio
que nunca pensei

267
00:23:28,532 --> 00:23:29,741
em cruzar.

268
00:23:33,161 --> 00:23:35,872
Tudo começou quando fui convidado

269
00:23:35,956 --> 00:23:40,043
por uma organização na Suíça
chamada Spiez Laboratory

270
00:23:40,544 --> 00:23:44,423
para fazer uma apresentação
sobre o uso indevido de IAs.

271
00:23:48,343 --> 00:23:51,221
Sean me mandou um e-mail com ideias

272
00:23:51,304 --> 00:23:55,308
sobre usos indevidos
da nossa inteligência artificial.

273
00:23:56,059 --> 00:24:00,355
Em vez de pedir ao nosso modelo
para criar moléculas de medicamentos

274
00:24:00,439 --> 00:24:02,274
para tratar doenças,

275
00:24:02,774 --> 00:24:06,403
vamos tentar gerar
as moléculas mais tóxicas possíveis.

276
00:24:10,198 --> 00:24:11,491
Eu queria levantar

277
00:24:11,575 --> 00:24:15,203
a possibilidade de a IA ser usada
para criar moléculas letais.

278
00:24:17,414 --> 00:24:20,083
E, para ser sincero,
achamos que não daria certo.

279
00:24:20,167 --> 00:24:24,504
Tudo o que fizemos
foi trocar zero para um.

280
00:24:26,715 --> 00:24:30,385
Ao inverter,
em vez de evitar a toxicidade,

281
00:24:30,469 --> 00:24:32,220
a IA buscou exatamente isso.

282
00:24:32,721 --> 00:24:33,555
Só isso.

283
00:24:37,517 --> 00:24:40,729
Fui para casa
enquanto o computador fazia o trabalho.

284
00:24:41,521 --> 00:24:44,816
Estava funcionando,
gerando milhares de moléculas,

285
00:24:45,650 --> 00:24:49,529
e só tivemos que apertar "iniciar".

286
00:24:54,493 --> 00:24:58,330
Na manhã seguinte,
tinha um arquivo no meu computador

287
00:24:59,080 --> 00:25:03,376
com cerca de 40 mil moléculas

288
00:25:03,460 --> 00:25:05,253
que eram, potencialmente,

289
00:25:05,337 --> 00:25:08,882
algumas das moléculas mais tóxicas
conhecidas pela humanidade.

290
00:25:10,217 --> 00:25:12,761
Fiquei de cabelo em pé.

291
00:25:13,386 --> 00:25:14,554
Fiquei chocado.

292
00:25:15,388 --> 00:25:19,017
O computador forneceu
dezenas de milhares de ideias

293
00:25:19,100 --> 00:25:20,685
para novas armas químicas.

294
00:25:21,645 --> 00:25:27,609
Claro, tem moléculas que se parecem
com VX e são VX no conjunto de dados.

295
00:25:28,360 --> 00:25:31,363
O VX é uma das armas químicas
mais potentes do mundo.

296
00:25:31,863 --> 00:25:33,573
A polícia alega

297
00:25:33,657 --> 00:25:37,786
que as mulheres vistas
atacando Kim Jong-nam no aeroporto

298
00:25:37,869 --> 00:25:41,248
usaram um agente nervoso mortal
chamado VX.

299
00:25:41,748 --> 00:25:44,417
Pode causar morte por asfixia.

300
00:25:45,043 --> 00:25:47,629
É uma molécula muito potente,

301
00:25:47,712 --> 00:25:52,092
e a maioria das moléculas previstas
eram ainda mais mortais que o VX.

302
00:25:53,301 --> 00:25:56,972
Até onde sabemos,
muitas delas até então nunca vistas.

303
00:25:57,472 --> 00:26:02,310
Quando eu e Sean percebemos,
pensamos: "O que foi que fizemos?"

304
00:26:04,771 --> 00:26:09,192
Logo me dei conta
que abrimos uma caixa de Pandora.

305
00:26:09,901 --> 00:26:13,280
Falei que tínhamos que parar,
que acabou ali mesmo.

306
00:26:13,905 --> 00:26:17,158
Só precisava dos slides
para fazer a apresentação.

307
00:26:19,202 --> 00:26:20,704
Quando fizemos o experimento,

308
00:26:20,787 --> 00:26:23,873
não achava que fosse acontecer algo ruim.

309
00:26:26,251 --> 00:26:30,255
Mas fomos ingênuos.
Fomos totalmente ingênuos em fazer isso.

310
00:26:33,466 --> 00:26:36,928
O que mais me apavora é
que qualquer um poderia fazer isso.

311
00:26:38,930 --> 00:26:40,765
Basta apertar um botão.

312
00:26:42,934 --> 00:26:46,187
Como controlamos essa tecnologia
antes que seja usada

313
00:26:46,271 --> 00:26:50,942
para fazer algo totalmente destrutivo?

314
00:26:55,780 --> 00:27:00,285
No centro da conversa
sobre inteligência artificial

315
00:27:00,368 --> 00:27:03,538
e sobre como a usamos em sociedade

316
00:27:04,289 --> 00:27:08,835
está uma corrida entre o poder,
com o qual desenvolvemos tecnologias,

317
00:27:08,918 --> 00:27:11,379
e a sabedoria que temos
para administrá-la.

318
00:27:13,340 --> 00:27:16,926
Há implicações morais e éticas óbvias

319
00:27:17,010 --> 00:27:20,138
ao confiarmos a decisão moral
de tirar uma vida

320
00:27:20,221 --> 00:27:23,433
a algo que rege nossos smartphones.

321
00:27:25,727 --> 00:27:31,191
Trabalho com o Instituto Future of Life,
uma comunidade de cientistas ativistas.

322
00:27:31,733 --> 00:27:33,443
No geral, queremos mostrar

323
00:27:33,526 --> 00:27:38,698
que há um outro lado
na aceleração e escalada da automatização.

324
00:27:38,782 --> 00:27:42,619
Mas estamos tentando garantir
que as tecnologias que criamos

325
00:27:42,702 --> 00:27:45,038
sejam usadas de forma segura e ética.

326
00:27:46,247 --> 00:27:51,252
Vamos conversar sobre regras de uso
e códigos de conduta

327
00:27:51,336 --> 00:27:54,005
sobre a aplicação de IAs
em sistemas de armas.

328
00:27:54,798 --> 00:27:59,135
Porque, agora, existem
tecnologias para uso em batalhas

329
00:27:59,219 --> 00:28:01,680
que podem matar de forma autônoma.

330
00:28:10,230 --> 00:28:15,110
Em 2021, a ONU divulgou um relatório
sobre o uso em potencial

331
00:28:15,193 --> 00:28:19,364
de uma arma letal autônoma
no campo de batalha na Líbia.

332
00:28:20,073 --> 00:28:23,910
Um painel da ONU informou que um drone
usado na guerra civil da Líbia

333
00:28:23,993 --> 00:28:27,330
foi programado para atacar alvos
de forma autônoma.

334
00:28:28,289 --> 00:28:31,209
Se o relatório da ONU estiver correto,

335
00:28:31,292 --> 00:28:34,963
será um divisor de águas
para a humanidade,

336
00:28:35,046 --> 00:28:37,090
porque mostra um caso

337
00:28:37,173 --> 00:28:42,137
em que uma IA tomou a decisão de matar,
e não um ser humano.

338
00:28:49,686 --> 00:28:51,688
Vemos armas autônomas avançadas

339
00:28:51,771 --> 00:28:55,150
começando a ser usadas
em diferentes lugares pelo mundo.

340
00:28:56,276 --> 00:28:58,278
Houve relatos de Israel.

341
00:29:00,280 --> 00:29:05,702
O Azerbaijão usou sistemas autônomos
para atacar as defesas aéreas armênias.

342
00:29:07,370 --> 00:29:09,998
Pode voar pelo campo de batalha por horas,

343
00:29:10,081 --> 00:29:12,500
procurando alvos por conta própria

344
00:29:12,584 --> 00:29:16,087
para atacar
sem qualquer tipo de intervenção humana.

345
00:29:16,796 --> 00:29:18,298
Vimos recentemente

346
00:29:18,381 --> 00:29:21,760
diferentes vídeos mostrando a Ucrânia.

347
00:29:23,303 --> 00:29:26,890
Não fica claro
em qual modo estavam operando.

348
00:29:26,973 --> 00:29:30,393
Uma pessoa estava operando,
escolhendo quais alvos atacar,

349
00:29:30,477 --> 00:29:32,729
ou o drone fazia isso sozinho?

350
00:29:32,812 --> 00:29:36,524
Mas certamente chegará o momento,

351
00:29:36,608 --> 00:29:40,195
e talvez já tenha chegado
na Líbia ou na Ucrânia,

352
00:29:40,278 --> 00:29:44,449
em que uma máquina vai decidir
quem matar no campo de batalha.

353
00:29:47,035 --> 00:29:50,997
Máquinas exercendo poder letal
contra humanos,

354
00:29:51,080 --> 00:29:53,374
sem intervenção humana,

355
00:29:53,458 --> 00:29:57,337
são politicamente inaceitáveis
e moralmente repugnantes.

356
00:29:59,214 --> 00:30:01,299
Se a comunidade internacional

357
00:30:01,382 --> 00:30:05,011
será suficiente
para gerenciar esses desafios

358
00:30:05,094 --> 00:30:06,888
é uma grande questão.

359
00:30:08,932 --> 00:30:12,685
Se olharmos para o futuro,
para daqui a alguns anos,

360
00:30:12,769 --> 00:30:15,730
o cenário é bastante assustador,

361
00:30:16,564 --> 00:30:20,485
considerando a imensa quantidade
de recursos capitais e humanos

362
00:30:20,568 --> 00:30:23,404
empregados para potencializar IAs

363
00:30:23,488 --> 00:30:26,950
e para usá-las para diferentes aplicações.

364
00:30:39,254 --> 00:30:41,214
Esse cara não existe.

365
00:30:41,756 --> 00:30:43,424
Ele sabe que não vai vencer.

366
00:30:46,761 --> 00:30:51,099
Quando vejo uma IA ser bem-sucedida,
acho inspirador.

367
00:30:51,683 --> 00:30:53,977
Vou partir para o tudo ou nada.

368
00:30:54,477 --> 00:30:59,524
Podemos aplicar as mesmas técnicas,
táticas, procedimentos em aeronaves reais.

369
00:31:01,401 --> 00:31:02,318
Boa partida.

370
00:31:02,402 --> 00:31:03,778
Muito bem, boa partida.

371
00:31:08,658 --> 00:31:09,909
Acho surpreendente

372
00:31:09,993 --> 00:31:14,122
que as pessoas fiquem falando
sobre o que a IA não consegue fazer.

373
00:31:14,205 --> 00:31:17,166
"Nunca vai vencer
um campeão mundial de xadrez."

374
00:31:20,211 --> 00:31:22,672
Um computador da IBM deu a volta por cima

375
00:31:22,755 --> 00:31:25,925
no 2º jogo contra o campeão mundial,
Garry Kasparov.

376
00:31:28,136 --> 00:31:30,847
Kasparov desistiu!

377
00:31:31,598 --> 00:31:34,642
Quando vejo algo
que vai além da minha compreensão,

378
00:31:34,726 --> 00:31:38,062
fico com medo. E aquilo foi
muito além da minha compreensão.

379
00:31:39,355 --> 00:31:41,107
E daí tinha gente que dizia:

380
00:31:41,190 --> 00:31:44,402
"Nunca será capaz de vencer
um campeão mundial no Go."

381
00:31:44,485 --> 00:31:50,700
Acredito que a intuição humana
ainda é avançada demais para a IA

382
00:31:50,783 --> 00:31:52,827
ter conseguido alcançá-la.

383
00:31:55,330 --> 00:31:58,416
Go é um dos jogos
mais complicados que existem

384
00:31:58,499 --> 00:32:02,211
porque o número de movimentos
no tabuleiro, fazendo as contas,

385
00:32:02,295 --> 00:32:05,256
é maior que o número de átomos
no universo inteiro.

386
00:32:06,799 --> 00:32:08,968
O Google tinha uma equipe
chamada DeepMind,

387
00:32:09,052 --> 00:32:11,471
que criou um programa chamado AlphaGo

388
00:32:11,554 --> 00:32:14,265
para vencer
os melhores jogadores do mundo.

389
00:32:16,559 --> 00:32:18,394
Parabéns a…

390
00:32:18,478 --> 00:32:19,437
- AlphaGo
- AlphaGo.

391
00:32:19,520 --> 00:32:22,774
Um programa de computador derrotou
um profissional de elite.

392
00:32:25,610 --> 00:32:31,532
E a DeepMind escolheu StarCraft
como seu próximo desafio de IA.

393
00:32:33,743 --> 00:32:38,081
StarCraft é talvez o jogo de estratégia
em tempo real mais popular.

394
00:32:40,333 --> 00:32:44,712
AlphaStar ficou famosa
ao derrotar campeões mundiais.

395
00:32:45,338 --> 00:32:48,800
A AlphaStar está detonando a Immortal Arc.

396
00:32:48,883 --> 00:32:49,717
Quer saber?

397
00:32:49,801 --> 00:32:52,553
Acho que os profissionais não vão ganhar.

398
00:32:53,680 --> 00:32:54,806
É meio ridículo.

399
00:32:57,642 --> 00:33:00,895
Jogadores profissionais falavam
que não usariam aquela tática

400
00:33:00,979 --> 00:33:04,816
ou aquela estratégia,
que aquilo não era humano.

401
00:33:07,151 --> 00:33:10,655
E isso foi muito revelador para mim.

402
00:33:13,574 --> 00:33:16,661
Me dei conta que a hora é agora.

403
00:33:17,412 --> 00:33:21,082
Existe uma tecnologia importante
e uma oportunidade de fazer a diferença.

404
00:33:24,502 --> 00:33:29,382
Eu só conhecia as dificuldades de um SEAL
em combate em ambiente confinado,

405
00:33:30,383 --> 00:33:34,470
mas um amigo meu, piloto de F-18, me disse

406
00:33:34,554 --> 00:33:37,724
que tinham o mesmo problema
ao pilotar aeronaves.

407
00:33:37,807 --> 00:33:39,434
Tinha interferência,

408
00:33:39,517 --> 00:33:44,439
locais de lançamento de mísseis
que tornavam as operações perigosas.

409
00:33:47,483 --> 00:33:50,987
Imagine se tivéssemos um caça
comandado por uma IA.

410
00:33:51,070 --> 00:33:52,739
Teste do AlphaDogfight.

411
00:33:52,822 --> 00:33:56,159
Faltam alguns minutos
para a primeira semifinal.

412
00:33:56,242 --> 00:33:59,871
A DARPA, a Agência de Projetos
de Pesquisa Avançada em Defesa,

413
00:33:59,954 --> 00:34:03,624
viu o AlphaGo e a AlphaStar,

414
00:34:04,292 --> 00:34:08,171
e decidiu criar
a competição AlphaDogfight.

415
00:34:09,005 --> 00:34:11,466
É o que se espera
de pilotos de caça humanos.

416
00:34:11,549 --> 00:34:13,593
Parece competição de caça com humanos.

417
00:34:15,595 --> 00:34:19,057
É uma luta entre pilotos de caça.

418
00:34:19,849 --> 00:34:22,852
É como se fosse uma luta de boxe no céu.

419
00:34:23,853 --> 00:34:26,314
Talvez tenham visto o filme Top Gun.

420
00:34:26,397 --> 00:34:27,815
Conseguimos fugir deles?

421
00:34:28,649 --> 00:34:31,277
- Não dos mísseis e armas.
- É uma luta de caças.

422
00:34:35,531 --> 00:34:39,410
Dominar a luta de caças
pode levar de oito a dez anos.

423
00:34:42,288 --> 00:34:46,209
É um desafio bastante complexo
programar uma IA para isso.

424
00:34:54,092 --> 00:34:58,679
A abordagem anterior entre autonomia
e luta de caças era meio frágil.

425
00:34:59,222 --> 00:35:03,017
O aprendizado de máquina
era a melhor forma de resolver isso.

426
00:35:04,477 --> 00:35:08,189
No começo, a IA não sabia nada
sobre esse universo.

427
00:35:08,272 --> 00:35:12,735
Não sabia que estava voando,
o que era luta de caças e nem um F-16.

428
00:35:13,236 --> 00:35:15,905
Só sabia as ações possíveis

429
00:35:15,988 --> 00:35:18,407
e que podia explorá-las aleatoriamente.

430
00:35:19,325 --> 00:35:23,204
A aeronave azul
está treinando há pouco tempo.

431
00:35:23,287 --> 00:35:25,832
Dá para ver que fica sacudindo,

432
00:35:26,624 --> 00:35:30,545
voando de forma irregular
e para longe do adversário.

433
00:35:31,587 --> 00:35:32,755
À medida que progride,

434
00:35:32,839 --> 00:35:36,134
podemos ver que o azul
está definindo sua estratégia.

435
00:35:36,676 --> 00:35:38,636
É uma posição melhor para atirar.

436
00:35:39,178 --> 00:35:41,305
O algoritmo de aprendizado diz:

437
00:35:41,389 --> 00:35:43,891
"Tome um biscoito.
Continue fazendo isso. "

438
00:35:45,143 --> 00:35:50,064
Podemos usar o computador e treinar
os agentes muitas vezes, em paralelo.

439
00:35:51,315 --> 00:35:52,775
É como um time de basquete.

440
00:35:53,276 --> 00:35:55,778
Em vez de jogar contra um mesmo time,

441
00:35:55,862 --> 00:35:59,198
viajamos o mundo
e jogamos contra 512 times diferentes,

442
00:35:59,699 --> 00:36:00,950
todos ao mesmo tempo.

443
00:36:01,492 --> 00:36:03,452
É possível ficar bom muito rápido.

444
00:36:04,162 --> 00:36:07,456
Conseguimos rodar essa simulação sem parar

445
00:36:07,540 --> 00:36:11,919
e conseguir o equivalente a 30 anos
de treinamento em dez meses.

446
00:36:12,879 --> 00:36:15,673
Foi de mal conseguir controlar a aeronave

447
00:36:15,756 --> 00:36:17,717
a assassino calculista.

448
00:36:19,010 --> 00:36:23,514
No treinamento,
a competição era contra outra IA.

449
00:36:24,473 --> 00:36:28,561
Mas competir diretamente
contra humanos era o objetivo final.

450
00:36:34,192 --> 00:36:35,610
Meu nome é Mike Benitez.

451
00:36:36,110 --> 00:36:38,362
Sou tenente-coronel da Força Aérea dos EUA

452
00:36:39,155 --> 00:36:41,157
e estou na ativa há 25 anos.

453
00:36:42,825 --> 00:36:44,869
Estive em 250 missões de combate

454
00:36:45,578 --> 00:36:47,538
e sou formado em armas,

455
00:36:48,039 --> 00:36:49,832
que é como se fosse Top Gun.

456
00:36:52,627 --> 00:36:55,171
Nunca voei contra uma IA.

457
00:36:55,254 --> 00:36:58,549
Estou muito animado
para ver como vou me sair.

458
00:36:59,634 --> 00:37:03,054
Vai ser uma ofensiva a 1.800 metros,
cara a cara.

459
00:37:04,388 --> 00:37:05,223
Cai dentro.

460
00:37:13,314 --> 00:37:14,148
Ele está indo.

461
00:37:14,732 --> 00:37:16,651
Que interessante…

462
00:37:20,780 --> 00:37:23,658
- Morreu.
- Acertei. Vitória perfeita.

463
00:37:25,910 --> 00:37:27,453
Beleza, segundo round.

464
00:37:35,461 --> 00:37:40,508
A IA está manobrando com tanta precisão

465
00:37:41,384 --> 00:37:43,219
que eu não consigo acompanhar.

466
00:37:48,474 --> 00:37:49,725
Vão se encontrar.

467
00:37:50,309 --> 00:37:51,894
Agora já era.

468
00:37:53,145 --> 00:37:53,980
Peguei!

469
00:37:54,063 --> 00:37:55,022
Me pegou.

470
00:37:58,567 --> 00:38:00,069
A IA não sente medo.

471
00:38:00,736 --> 00:38:03,781
Tem um elemento emocional humano
que a IA não tem.

472
00:38:04,991 --> 00:38:08,077
Uma das estratégias mais interessantes
que a IA criou

473
00:38:08,160 --> 00:38:10,121
foi o tiro de frente.

474
00:38:10,621 --> 00:38:14,000
Normalmente,
os humanos preferem atirar por trás

475
00:38:14,083 --> 00:38:16,377
porque é difícil de se esquivar.

476
00:38:17,044 --> 00:38:20,381
Atirar pela frente é pagar para ver
quem vai amarelar primeiro.

477
00:38:21,424 --> 00:38:25,511
Quando chegamos de frente,
900, 150 metros de distância

478
00:38:25,594 --> 00:38:27,096
podem passar rapidinho.

479
00:38:27,596 --> 00:38:31,183
O risco de colisão é muito alto,
por isso humanos não tentam.

480
00:38:32,893 --> 00:38:35,938
A IA, a menos que seja instruída,
não teme a morte.

481
00:38:37,857 --> 00:38:40,234
Parece que estou lutando
contra uma pessoa,

482
00:38:40,776 --> 00:38:44,113
mas uma que não se importa
nem um pouco com a segurança.

483
00:38:45,489 --> 00:38:47,325
Ele não vai sobreviver.

484
00:38:57,168 --> 00:38:58,461
Ele não tem tempo.

485
00:39:01,964 --> 00:39:02,965
Boa noite.

486
00:39:04,091 --> 00:39:04,925
Morri.

487
00:39:16,812 --> 00:39:17,980
Abriu meus olhos saber

488
00:39:18,064 --> 00:39:20,900
que talvez eu nem seja
a melhor opção para a missão,

489
00:39:21,484 --> 00:39:24,320
e que talvez a IA me substitua um dia.

490
00:39:25,696 --> 00:39:26,906
Teto de 1.800m.

491
00:39:27,615 --> 00:39:28,824
Desvio de 300m.

492
00:39:29,450 --> 00:39:32,078
Com essa IA piloto comandando caças,

493
00:39:32,828 --> 00:39:34,830
a vitória é implacável, é dominante.

494
00:39:34,914 --> 00:39:37,249
Não é só ganhar por uma grande margem.

495
00:39:37,333 --> 00:39:41,545
É pensar em como usar isso
em nossas aeronaves. É poderoso.

496
00:39:43,672 --> 00:39:47,802
É realista achar
que uma IA vai pilotar um F-16,

497
00:39:47,885 --> 00:39:49,970
e não falta muito para isso.

498
00:39:51,305 --> 00:39:56,769
Se enfrentar uma IA piloto
com uma taxa de vitória de 99.99999%,

499
00:39:56,852 --> 00:39:58,646
você não tem chance alguma.

500
00:39:59,605 --> 00:40:02,733
Quando penso que uma IA piloto
já é invencível,

501
00:40:02,817 --> 00:40:06,695
imagine o que uma equipe de 50, 100

502
00:40:07,279 --> 00:40:12,535
ou 1.000 IAs piloto conseguiriam alcançar.

503
00:40:13,702 --> 00:40:17,415
O enxame é uma equipe
de aeronaves muito inteligentes

504
00:40:17,498 --> 00:40:18,791
que trabalham juntas.

505
00:40:19,291 --> 00:40:23,462
Elas compartilham informações
sobre o que fazer, como resolver questões.

506
00:40:25,172 --> 00:40:30,469
O enxame vai transformar e mudar o jogo

507
00:40:30,553 --> 00:40:32,638
para nosso Exército e nossos aliados.

508
00:41:42,750 --> 00:41:47,379
O alvo foi encontrado.
Os drones o estão rastreando.

509
00:42:02,019 --> 00:42:03,604
Beleza, agora o pouso.

510
00:42:07,566 --> 00:42:10,402
O objetivo principal da pesquisa do enxame

511
00:42:11,153 --> 00:42:13,697
é enviar muitos drones

512
00:42:13,781 --> 00:42:17,910
a uma área de difícil acesso
ou que é perigosa.

513
00:42:21,705 --> 00:42:26,085
O Laboratório de Pesquisa do Exército
apoia este projeto de pesquisa.

514
00:42:26,919 --> 00:42:28,963
Para saber o que tem em uma área

515
00:42:29,046 --> 00:42:32,883
que é de difícil acesso
ou é grande demais,

516
00:42:33,676 --> 00:42:35,886
enviar um enxame é um jeito fácil

517
00:42:35,970 --> 00:42:38,389
de aumentar o alcance das pessoas

518
00:42:38,472 --> 00:42:41,934
e coletar informações cruciais
para a missão.

519
00:42:46,689 --> 00:42:48,983
Enviamos o enxame

520
00:42:49,066 --> 00:42:53,904
e vamos dar um único comando
para que rastreie o alvo.

521
00:42:54,488 --> 00:42:57,283
Com isso,
os drones fazem o resto sozinhos.

522
00:42:59,493 --> 00:43:04,081
A IA permite que os robôs
se movam juntos como um enxame

523
00:43:04,164 --> 00:43:05,708
de forma descentralizada.

524
00:43:10,671 --> 00:43:12,506
Nos enxames pela natureza,

525
00:43:13,299 --> 00:43:18,178
não há chefe nem um líder
que diz o que devem fazer.

526
00:43:20,556 --> 00:43:25,019
O comportamento parte de cada animal

527
00:43:25,102 --> 00:43:27,104
seguindo algumas regras simples.

528
00:43:27,688 --> 00:43:32,443
E, a partir disso, surge
o comportamento coletivo que vemos.

529
00:43:33,944 --> 00:43:37,031
O que é fascinante nos enxames na natureza

530
00:43:37,114 --> 00:43:39,992
é a habilidade graciosa com que se movem.

531
00:43:40,576 --> 00:43:44,288
É como se tivessem sido feitos
para fazer parte do grupo.

532
00:43:46,790 --> 00:43:51,128
O que gostaríamos de alcançar
com nosso enxame de drones são,

533
00:43:51,211 --> 00:43:53,172
como em enxames na natureza,

534
00:43:53,672 --> 00:43:56,717
decisões sendo tomadas
pelo grupo coletivamente.

535
00:43:59,928 --> 00:44:02,765
Outras características que nos inspiram

536
00:44:02,848 --> 00:44:06,268
são a confiabilidade e resiliência.

537
00:44:07,311 --> 00:44:09,188
O enxame não para

538
00:44:09,271 --> 00:44:13,567
se um único animal
não fizer o que deve fazer.

539
00:44:15,194 --> 00:44:18,697
Mesmo que um dos agentes caia ou falhe

540
00:44:18,781 --> 00:44:20,866
e não consiga concluir a tarefa,

541
00:44:21,909 --> 00:44:23,369
o enxame continua.

542
00:44:25,204 --> 00:44:27,873
E esse é nosso objetivo final.

543
00:44:29,333 --> 00:44:33,879
Em combates, temos a demanda
de identificar aeronaves inimigas.

544
00:44:33,962 --> 00:44:37,841
Antes, para fazer isso,
uma pessoa precisava controlar um robô.

545
00:44:38,592 --> 00:44:40,552
Com o aumento da autonomia,

546
00:44:40,636 --> 00:44:43,555
espero ver um grande número de robôs

547
00:44:43,639 --> 00:44:46,558
sendo controlados
por um número pequeno de pessoas.

548
00:44:47,851 --> 00:44:50,854
Não acho improvável
que consigamos um time de mil,

549
00:44:51,355 --> 00:44:54,942
porque cada agente vai poder agir
como achar melhor,

550
00:44:55,025 --> 00:44:56,443
e o céu é o limite.

551
00:44:57,027 --> 00:44:59,071
Podemos mudar o aprendizado…

552
00:44:59,154 --> 00:45:03,325
Estamos trabalhando
com a simulação de enxames há algum tempo,

553
00:45:03,409 --> 00:45:06,829
e está na hora de aplicar
a aeronaves reais.

554
00:45:07,329 --> 00:45:12,042
Vamos tentar três robôs de uma vez na rede

555
00:45:12,126 --> 00:45:15,129
e começar a adicionar mais funções.

556
00:45:15,879 --> 00:45:18,549
Queremos testar em sistemas menores,

557
00:45:18,632 --> 00:45:22,261
mas também aplicar
esses conceitos a sistemas maiores,

558
00:45:22,344 --> 00:45:23,679
como um caça a jato.

559
00:45:24,596 --> 00:45:26,014
Falamos muito

560
00:45:26,098 --> 00:45:31,937
sobre como dar a um pelotão
o poder de combate de um batalhão.

561
00:45:34,982 --> 00:45:39,528
Ou a um batalhão
o poder de combate de uma brigada.

562
00:45:39,611 --> 00:45:41,488
Com o enxame, isso é possível.

563
00:45:42,614 --> 00:45:45,200
Quando for possível usar
todo esse potencial,

564
00:45:45,284 --> 00:45:49,455
ataques militares terão
uma nova estratégia de dissuasão.

565
00:45:52,332 --> 00:45:57,004
Acho que o mais empolgante
é o tanto de homens e mulheres

566
00:45:57,087 --> 00:46:00,299
que vamos salvar se fizermos tudo certo.

567
00:46:01,091 --> 00:46:03,594
Máquinas estarão em jogo

568
00:46:04,470 --> 00:46:05,846
em vez de vidas humanas.

569
00:46:06,638 --> 00:46:10,893
Alguns argumentam que armas autônomas
tornarão guerras mais precisas

570
00:46:10,976 --> 00:46:12,311
e mais humanizadas,

571
00:46:12,853 --> 00:46:15,397
mas, na verdade, é difícil prever

572
00:46:15,481 --> 00:46:19,443
como armas autônomas vão mudar guerras.

573
00:46:21,320 --> 00:46:23,238
É como a invenção da metralhadora.

574
00:46:25,073 --> 00:46:26,700
Richard Gatling era inventor

575
00:46:27,201 --> 00:46:30,954
e viu soldados voltando feridos
da Guerra Civil.

576
00:46:32,289 --> 00:46:35,292
Ele quis achar um jeito
de humanizar as guerras.

577
00:46:36,293 --> 00:46:39,797
Para reduzir o número de soldados mortos,

578
00:46:40,422 --> 00:46:42,633
tinha que reduzir os soldados em campo.

579
00:46:44,092 --> 00:46:48,388
Com isso, ele inventou a Gatling,
uma arma automática acionada por manivela

580
00:46:48,472 --> 00:46:50,516
que poderia automatizar os disparos.

581
00:46:53,268 --> 00:46:57,981
Aumentou 100 vezes
o poder de fogo dos soldados.

582
00:47:01,235 --> 00:47:05,239
Às vezes, esforços para tornar guerras
mais precisas e humanizadas

583
00:47:06,490 --> 00:47:07,991
podem ter o efeito oposto.

584
00:47:10,160 --> 00:47:13,455
Imagine os efeitos
de um ataque de drone fora de controle

585
00:47:13,539 --> 00:47:14,540
em uma área rural

586
00:47:14,623 --> 00:47:17,209
que leva a população
a se voltar contra os EUA

587
00:47:17,292 --> 00:47:20,712
e contra o governo local.
Supostamente os mocinhos.

588
00:47:22,589 --> 00:47:25,008
Agora, aumente isso em mil vezes.

589
00:47:26,802 --> 00:47:28,720
A criação de um sistema de armas

590
00:47:28,804 --> 00:47:34,560
que seja barato, escalonável
e que não precise de operadores humanos

591
00:47:34,643 --> 00:47:37,896
muda drasticamente
as barreiras reais de conflitos.

592
00:47:40,107 --> 00:47:44,486
Não consigo dormir pensando
em um mundo em que a guerra é onipresente

593
00:47:44,987 --> 00:47:48,657
e em que não carregamos mais
seu custo humano e financeiro

594
00:47:48,740 --> 00:47:51,410
porque nos distanciamos demais das…

595
00:47:52,369 --> 00:47:54,037
vidas que serão perdidas.

596
00:47:59,501 --> 00:48:01,420
Isso me assombra.

597
00:48:02,212 --> 00:48:05,924
Eu só precisava de um exemplo
de uso indevido da IA.

598
00:48:06,800 --> 00:48:10,888
As consequências imprevistas
de fazer aquele simples experimento

599
00:48:10,971 --> 00:48:12,848
foram longe demais.

600
00:48:13,348 --> 00:48:16,226
IA E MEDICAMENTOS:
MAIS DANOS QUE BENEFÍCIOS

601
00:48:17,352 --> 00:48:18,729
Quando fiz a apresentação

602
00:48:18,812 --> 00:48:22,107
sobre as moléculas tóxicas
criadas pela IA,

603
00:48:22,608 --> 00:48:24,318
a plateia ficou de queixo caído.

604
00:48:25,402 --> 00:48:27,613
CINCO MIL COMPOSTOS
ERAM ANÁLOGOS AO VX

605
00:48:29,406 --> 00:48:33,577
A próxima decisão foi
se deveríamos publicar essa informação.

606
00:48:34,912 --> 00:48:36,914
Por um lado, deveríamos alertar

607
00:48:36,997 --> 00:48:40,125
para essa capacidade, mas, por outro,

608
00:48:40,208 --> 00:48:44,087
não queríamos dar essa ideia a alguém.

609
00:48:46,381 --> 00:48:48,133
Decidimos que valia a pena publicar

610
00:48:48,216 --> 00:48:52,679
para tentar mitigar o uso indevido da IA

611
00:48:52,763 --> 00:48:54,139
antes que fosse tarde.

612
00:48:54,222 --> 00:48:56,975
AS DUAS FACES DA IA
NA DESCOBERTA DE MEDICAMENTOS

613
00:48:57,559 --> 00:49:00,437
COMO O USO INDEVIDO
DE INTELIGÊNCIAS ARTIFICIAIS

614
00:49:01,897 --> 00:49:04,775
A reação do público em geral foi chocante.

615
00:49:07,194 --> 00:49:10,656
Dá para ver as métricas da página,
quantas pessoas acessaram.

616
00:49:10,739 --> 00:49:14,451
Com o tipo de artigo que escrevemos,
é pura sorte

617
00:49:14,534 --> 00:49:19,831
se mais de mil pessoas leem
ao longo de um ano ou mais.

618
00:49:19,915 --> 00:49:22,084
Dez mil pessoas leram em uma semana.

619
00:49:22,167 --> 00:49:25,337
Depois foram 20, 30, 40 mil.

620
00:49:25,837 --> 00:49:28,715
Chegou a dez mil pessoas por dia.

621
00:49:30,258 --> 00:49:33,512
Fomos mencionados
no The Economist, no Financial Times.

622
00:49:35,639 --> 00:49:38,016
O Radiolab nos procurou.

623
00:49:38,809 --> 00:49:39,977
Já ouvi falar deles!

624
00:49:41,937 --> 00:49:45,899
Mas as reações ficaram fora de controle.

625
00:49:49,778 --> 00:49:53,532
Pelos tuítes, as pessoas achavam
que não poderia ficar pior.

626
00:49:54,324 --> 00:49:55,993
"Por que fizeram isso?"

627
00:50:01,164 --> 00:50:04,501
E aí recebemos um convite
que eu nunca teria imaginado.

628
00:50:08,797 --> 00:50:12,926
Houve muita discussão
na Casa Branca sobre o artigo,

629
00:50:13,010 --> 00:50:15,345
e queriam falar conosco urgentemente.

630
00:50:18,849 --> 00:50:20,809
Claro, era uma honra

631
00:50:20,892 --> 00:50:23,020
poder falar com pessoas desse nível.

632
00:50:23,603 --> 00:50:25,272
Mas aí você se dá conta

633
00:50:25,355 --> 00:50:28,900
que, caramba, é a Casa Branca. O chefão.

634
00:50:29,693 --> 00:50:33,196
Isso envolveu reunir dados públicos…

635
00:50:33,280 --> 00:50:37,701
Em cerca de seis horas,
o modelo gerou cerca de 40 mil…

636
00:50:37,784 --> 00:50:41,038
Perguntaram se precisava
de um computador excepcional,

637
00:50:41,872 --> 00:50:43,832
mas não é nada de mais.

638
00:50:44,332 --> 00:50:48,211
Dá para usar um Mac comum
de seis anos atrás.

639
00:50:49,546 --> 00:50:51,256
E isso os surpreendeu.

640
00:50:54,968 --> 00:50:59,473
Os encarregados de entender armas químicas

641
00:50:59,556 --> 00:51:04,019
e as agências governamentais
não tinham ideia desse potencial.

642
00:51:06,605 --> 00:51:09,816
Temos um livro de receitas
de armas químicas,

643
00:51:10,650 --> 00:51:15,572
e, nas mãos da pessoa errada
e mal-intencionada,

644
00:51:16,573 --> 00:51:18,992
pode ser algo aterrorizante.

645
00:51:21,703 --> 00:51:23,205
As pessoas precisam saber,

646
00:51:23,288 --> 00:51:26,458
e temos que regulamentar a tecnologia

647
00:51:27,250 --> 00:51:30,670
ou restringi-la para não ser usada
de forma indevida

648
00:51:31,880 --> 00:51:35,175
porque o potencial de letalidade…

649
00:51:36,176 --> 00:51:37,344
é assustador.

650
00:51:40,680 --> 00:51:45,977
A questão da ética da IA
é bastante discutida em sociedade,

651
00:51:46,561 --> 00:51:50,273
não por engenheiros ou técnicos,
mas por matemáticos.

652
00:51:52,484 --> 00:51:56,822
Cada tecnologia apresentada,
cada inovação,

653
00:51:56,905 --> 00:52:00,617
esbarra em como a sociedade acha
que deve ser usada.

654
00:52:03,036 --> 00:52:06,498
Por ora, o Departamento de Defesa diz:

655
00:52:06,581 --> 00:52:09,960
"A única coisa que dá o comando
de matar outra

656
00:52:10,043 --> 00:52:11,920
no campo de batalha é um humano."

657
00:52:12,504 --> 00:52:14,548
Uma máquina pode matar,

658
00:52:15,674 --> 00:52:18,927
mas apenas sob o comando
de um operador humano,

659
00:52:19,636 --> 00:52:21,429
e acho que isso não vai mudar.

660
00:52:24,808 --> 00:52:28,103
Eles nos garantem
que esse tipo de tecnologia será segura,

661
00:52:29,729 --> 00:52:33,692
mas o Exército dos EUA não tem
uma boa reputação

662
00:52:33,775 --> 00:52:35,485
no uso de drones em guerras.

663
00:52:36,820 --> 00:52:41,783
Então, quando se trata de confiar
o uso de IAs ao Exército dos EUA,

664
00:52:41,867 --> 00:52:44,953
eu diria que o histórico fala por si só.

665
00:52:46,288 --> 00:52:50,125
Pela política do Departamento de Defesa
sobre armas autônomas,

666
00:52:50,208 --> 00:52:52,919
nenhum sistema de armas é proibido.

667
00:52:53,003 --> 00:52:56,715
E mesmo que os militares não queiram
armas autônomas,

668
00:52:56,798 --> 00:53:01,678
vemos que cada vez mais
delegam decisões a máquinas

669
00:53:01,761 --> 00:53:03,680
para não ficarem em desvantagem,

670
00:53:04,764 --> 00:53:08,351
e isso pode levar o Exército
a automatizar decisões

671
00:53:08,435 --> 00:53:09,978
que talvez não queiram.

672
00:53:12,022 --> 00:53:16,693
Vladimir Putin disse: "Quem for o líder
em IA, vai dominar o mundo."

673
00:53:17,736 --> 00:53:23,325
O presidente Xi Jinping deixou claro
que a IA é uma das principais tecnologias

674
00:53:23,408 --> 00:53:25,702
na qual a China quer ser líder.

675
00:53:26,786 --> 00:53:29,831
É claramente uma competição tecnológica.

676
00:53:33,501 --> 00:53:35,670
Já se ouve falar em regulamentações,

677
00:53:36,463 --> 00:53:39,424
e acho que é
o que as pessoas deveriam fazer.

678
00:53:40,467 --> 00:53:45,180
Mas há uma corrida real
pela liderança em IA.

679
00:53:47,265 --> 00:53:51,603
E nossos adversários,
seja China, Rússia ou Irã,

680
00:53:52,187 --> 00:53:56,566
não vão se importar
com qual é nossa política em relação à IA.

681
00:54:00,820 --> 00:54:04,324
Tem muitas conversas
sobre políticas de IA,

682
00:54:06,117 --> 00:54:09,287
mas acho que mais líderes
deveriam estar se perguntando

683
00:54:09,371 --> 00:54:11,706
sobre quão rápido dá para desenvolver isso

684
00:54:12,707 --> 00:54:15,168
e injetando um monte de financiamento.

685
00:54:18,922 --> 00:54:21,299
REUNIÃO E EXPOSIÇÃO ANUAL DA AUSA

686
00:54:24,177 --> 00:54:26,805
EXÉRCITO DOS ESTADOS UNIDOS

687
00:54:33,478 --> 00:54:38,358
Estamos na maior feira anual
da Associação do Exército dos EUA.

688
00:54:39,609 --> 00:54:44,572
Qualquer empresa que quer vender
produtos ou tecnologias para o Exército

689
00:54:44,656 --> 00:54:46,616
vai estar expondo aqui.

690
00:54:47,701 --> 00:54:50,537
A Base Aérea de Tyndall
tem quatro robôs nossos

691
00:54:50,620 --> 00:54:53,748
que patrulham o local o tempo todo.

692
00:54:55,750 --> 00:55:00,130
Podemos adicionar de tudo,
desde câmeras a sensores, o que precisar.

693
00:55:00,213 --> 00:55:05,135
Braços articulados… Tudo para cumprir
a missão que o cliente quiser.

694
00:55:06,678 --> 00:55:08,638
E se o seu inimigo usar IA?

695
00:55:09,431 --> 00:55:12,976
Um sistema de combate
que pensa e responde mais rápido

696
00:55:13,059 --> 00:55:16,062
do que um ser humano é capaz.
Temos que estar preparados.

697
00:55:17,605 --> 00:55:21,359
Treinamos os sistemas
para coletar informações sobre o inimigo,

698
00:55:22,027 --> 00:55:26,531
gerenciando a eliminação de alvos
com a supervisão de humanos.

699
00:55:33,288 --> 00:55:34,956
- Oi, general.
- Como vai?

700
00:55:35,040 --> 00:55:36,416
Bem, e o senhor?

701
00:55:37,709 --> 00:55:40,962
Só quero dizer que somos quem mais investe
em uma IA piloto.

702
00:55:41,046 --> 00:55:42,630
A nossa se chama Hivemind

703
00:55:43,298 --> 00:55:47,135
e a colocamos no quadricóptero Nova.
Ele entra em prédios,

704
00:55:47,218 --> 00:55:50,805
explora-os antes das forças especiais
e da infantaria.

705
00:55:50,889 --> 00:55:52,891
Estamos usando a Hivemind no V-BAT.

706
00:55:52,974 --> 00:55:56,811
A ideia é criar centenas desses times

707
00:55:56,895 --> 00:56:01,608
no Estreito de Taiwan, na Ucrânia,
não importa, para dissuadir adversários.

708
00:56:01,691 --> 00:56:03,360
Estou muito animado com isso.

709
00:56:03,943 --> 00:56:06,196
- Certo. Obrigado.
- Obrigado, general.

710
00:56:07,989 --> 00:56:13,370
As IAs piloto vão dominar,
e isso deve acontecer até 2025, 2030.

711
00:56:14,204 --> 00:56:17,582
Vão ser rapidamente adotadas
por exércitos do mundo todo.

712
00:56:19,250 --> 00:56:22,962
E o Exército da Romênia
com as aeronaves não tripuladas?

713
00:56:23,046 --> 00:56:24,589
Alta tecnologia no Exército.

714
00:56:25,256 --> 00:56:29,803
Já gastamos meio bilhão de dólares
na criação de uma IA piloto

715
00:56:29,886 --> 00:56:33,181
e vamos gastar mais um bilhão
nos próximos cinco anos.

716
00:56:33,264 --> 00:56:37,769
É um dos principais motivos
pelos quais ganhamos financiamentos.

717
00:56:37,852 --> 00:56:38,853
Bacana.

718
00:56:38,937 --> 00:56:42,732
É impressionante.
Conseguiu adicionar armas?

719
00:56:43,650 --> 00:56:45,568
Neste aqui não tem armas ainda.

720
00:56:45,652 --> 00:56:48,321
Então ainda não.
Mas pretendemos, no futuro.

721
00:56:48,905 --> 00:56:52,534
Para o cliente, é um caminhão.
Para nós, é um caminhão inteligente

722
00:56:52,617 --> 00:56:54,452
que consegue fazer várias coisas.

723
00:56:54,536 --> 00:56:55,703
- Valeu.
- Claro.

724
00:56:55,787 --> 00:56:57,914
Vou entrar em contato.

725
00:57:01,668 --> 00:57:04,129
Se voltar em dez anos,

726
00:57:04,212 --> 00:57:10,802
verá que IA e autonomia
vão ter dominado todo o mercado.

727
00:57:14,889 --> 00:57:19,352
Os Exércitos que contarem com o apoio
da IA e da autonomia

728
00:57:19,436 --> 00:57:25,108
vão dominar, acabar e destruir
aqueles que não tiverem isso.

729
00:57:26,401 --> 00:57:30,780
Será o equivalente
a cavalos contra tanques,

730
00:57:31,781 --> 00:57:34,367
pessoas com espadas contra metralhadoras.

731
00:57:34,909 --> 00:57:37,120
Não vai nem chegar perto.

732
00:57:38,746 --> 00:57:42,750
Vai estar por toda parte,
vai ser usada em cada aspecto da guerra,

733
00:57:43,585 --> 00:57:44,836
no nível tático,

734
00:57:45,336 --> 00:57:46,546
no nível estratégico,

735
00:57:47,172 --> 00:57:50,800
operando em velocidades
que são impossíveis para humanos.

736
00:57:53,094 --> 00:57:57,098
Os comandantes já estão sobrecarregados
com informações demais.

737
00:57:57,599 --> 00:58:01,019
Imagens de satélites,
de drones e de sensores.

738
00:58:02,103 --> 00:58:06,774
A IA pode ajudar um comandante
a entender mais rápido a situação

739
00:58:07,650 --> 00:58:09,903
e quais decisões precisam ser tomadas.

740
00:58:11,237 --> 00:58:14,866
A IA vai levar em conta todos os fatores

741
00:58:14,949 --> 00:58:17,702
que determinam a forma
como a guerra é travada,

742
00:58:18,286 --> 00:58:20,246
vai sugerir estratégias…

743
00:58:22,540 --> 00:58:25,668
e recomendar formas de vencer uma batalha.

744
00:58:32,217 --> 00:58:34,344
CENTRO DE INOVAÇÃO

745
00:58:36,971 --> 00:58:40,266
Nós da Lockheed Martin,
assim como o Departamento de Defesa,

746
00:58:40,350 --> 00:58:43,770
vemos a IA
como uma tecnologia crucial para garantir

747
00:58:43,853 --> 00:58:45,104
o comando e o controle.

748
00:58:47,065 --> 00:58:50,109
A taxa de propagação
tem uma média de 60cm por segundo.

749
00:58:50,193 --> 00:58:52,278
Este perímetro tem cerca de 280 hectares.

750
00:58:52,779 --> 00:58:55,782
As incertezas da guerra
fazem parte da defensiva,

751
00:58:57,158 --> 00:59:00,495
mas podemos comparar com estar no local

752
00:59:00,578 --> 00:59:03,206
e ter que tomar decisões
relativas a incêndios.

753
00:59:03,289 --> 00:59:06,543
O incêndio em Washburn ocorreu
ao norte de Wawona.

754
00:59:06,626 --> 00:59:09,629
Precisamos tomar decisões
com dados imperfeitos.

755
00:59:10,630 --> 00:59:14,300
Então como podemos usar a IA
para nos ajudar com essas incertezas?

756
00:59:17,637 --> 00:59:19,597
Incêndios florestais são caóticos.

757
00:59:20,181 --> 00:59:21,266
São muito complexos.

758
00:59:22,267 --> 00:59:26,354
Por isso, estamos trabalhando
para usar inteligência artificial

759
00:59:26,437 --> 00:59:27,855
para ajudar nas decisões.

760
00:59:31,442 --> 00:59:33,987
O Gerente Cognitivo de Missão
é um programa nosso

761
00:59:34,070 --> 00:59:37,949
que grava vídeos infravermelhos aéreos

762
00:59:38,032 --> 00:59:41,786
e depois processa
por meio de nossos algoritmos de IA

763
00:59:41,869 --> 00:59:45,248
para poder prever
o estado futuro do incêndio.

764
00:59:48,042 --> 00:59:49,794
No futuro,

765
00:59:49,877 --> 00:59:52,922
o Gerente Cognitivo de Missão
vai usar simulações,

766
00:59:53,006 --> 00:59:57,093
rodando cenários em milhares de ciclos,

767
00:59:57,176 --> 01:00:00,722
para recomendar a forma mais eficaz
de utilizar recursos

768
01:00:00,805 --> 01:00:04,058
para acabar com o fogo
em áreas de alta prioridade.

769
01:00:08,062 --> 01:00:12,400
Ele vai sugerir coisas como:
"Ação aérea com helicóptero aqui.

770
01:00:13,568 --> 01:00:15,903
Equipes em solo que limpam a mata,

771
01:00:16,946 --> 01:00:19,032
e bombeiros com mangueiras

772
01:00:19,657 --> 01:00:23,077
precisam ir
para as áreas de maior prioridade."

773
01:00:26,289 --> 01:00:29,292
Essas decisões poderão
ser geradas com mais rapidez

774
01:00:29,375 --> 01:00:31,044
e mais eficiência.

775
01:00:35,840 --> 01:00:38,468
Aos nossos olhos, a IA permite que humanos

776
01:00:38,551 --> 01:00:42,305
sejam capazes de acompanhar
o ambiente em constante mudança.

777
01:00:43,389 --> 01:00:46,517
E há vários paralelos

778
01:00:46,601 --> 01:00:50,355
para mostrar com o que estamos acostumados
no quesito defesa.

779
01:00:52,231 --> 01:00:55,860
O Exército não quer mais usar IAs

780
01:00:55,943 --> 01:01:00,323
e sistemas de armas individuais
apenas para alvos e execuções.

781
01:01:00,865 --> 01:01:02,200
A ideia é integrar a IA

782
01:01:02,283 --> 01:01:05,787
em toda a arquitetura
de tomada de decisões do Exército.

783
01:01:09,457 --> 01:01:12,960
O Exército tem um grande projeto
chamado Projeto Convergência.

784
01:01:14,545 --> 01:01:16,589
A Marinha tem o Vantagem.

785
01:01:16,673 --> 01:01:19,592
E a Aeronáutica,
o Sistema Avançado de Controle de Batalha.

786
01:01:21,886 --> 01:01:24,138
O Departamento de Defesa pensa

787
01:01:24,222 --> 01:01:26,683
em como juntar todas essas peças

788
01:01:26,766 --> 01:01:29,268
para que operemos mais rápido
que os adversários

789
01:01:30,395 --> 01:01:32,355
e de fato levemos vantagem.

790
01:01:33,481 --> 01:01:37,527
Uma IA gerenciadora de batalha
seria um general de alto escalão

791
01:01:37,610 --> 01:01:39,821
no comando da batalha,

792
01:01:41,155 --> 01:01:44,158
ajudando a dar ordens para várias forças,

793
01:01:45,118 --> 01:01:49,247
coordenando as ações
de todas as armas existentes

794
01:01:49,330 --> 01:01:51,958
e fazendo tudo isso
em uma velocidade desumana.

795
01:01:53,543 --> 01:01:55,294
Passamos os últimos 70 anos

796
01:01:55,378 --> 01:01:58,798
construindo o Exército
mais sofisticado do mundo

797
01:01:58,881 --> 01:02:03,177
e, agora, estamos diante da decisão
de ceder o controle

798
01:02:03,261 --> 01:02:07,598
dessa infraestrutura
para um algoritmo, um software.

799
01:02:10,351 --> 01:02:13,187
E as consequências dessa decisão

800
01:02:13,271 --> 01:02:16,774
podem desencadear toda a potência
dos nossos arsenais militares.

801
01:02:16,858 --> 01:02:19,902
Não seria uma Hiroshima. Seriam centenas.

802
01:02:25,616 --> 01:02:27,869
Este é o momento em que precisamos agir

803
01:02:27,952 --> 01:02:33,166
porque a janela de tempo
para conter esse risco está se fechando.

804
01:02:35,126 --> 01:02:39,338
Esta tarde, vamos começar
com desafios internacionais de segurança

805
01:02:39,422 --> 01:02:41,132
impostos por tecnologias emergentes

806
01:02:41,215 --> 01:02:44,343
na área de sistemas autônomos
de armas letais.

807
01:02:44,427 --> 01:02:47,722
O diálogo foi aberto dentro da ONU

808
01:02:47,805 --> 01:02:50,016
sobre a ameaça de armas letais autônomas

809
01:02:50,600 --> 01:02:56,564
e nossa proibição de sistemas
que usam IAs para selecionar pessoas.

810
01:02:56,647 --> 01:03:00,777
O consenso entre técnicos da área
é claro e retumbante.

811
01:03:00,860 --> 01:03:04,030
Somos contra armas autônomas
cujos alvos são humanos.

812
01:03:05,615 --> 01:03:08,993
Durante anos,
os governos contribuíram para a discussão

813
01:03:09,076 --> 01:03:11,329
dos sistemas autônomos de armas letais.

814
01:03:12,288 --> 01:03:16,793
Trata-se de um senso comum de segurança.

815
01:03:17,794 --> 01:03:20,546
Mas é claro que não é fácil.

816
01:03:21,297 --> 01:03:25,968
Certos países,
principalmente as potências militares,

817
01:03:26,052 --> 01:03:27,762
querem se adiantar

818
01:03:28,429 --> 01:03:31,599
para ficarem à frente de seus adversários.

819
01:03:32,600 --> 01:03:36,187
O problema é que todos têm que concordar
para que algo seja feito.

820
01:03:36,896 --> 01:03:39,065
Pelo menos um país fará objeções,

821
01:03:39,148 --> 01:03:42,109
e os EUA e a Rússia já deixaram claro

822
01:03:42,193 --> 01:03:45,655
que se opõem a um tratado
que proíba armas autônomas.

823
01:03:47,198 --> 01:03:53,204
O número de pessoas trabalhando
para tornar a IA mais poderosa

824
01:03:54,747 --> 01:03:56,457
não é pouco.

825
01:03:57,750 --> 01:04:02,880
O número de pessoas trabalhando
para garantir que a IA seja segura

826
01:04:04,340 --> 01:04:07,510
não é tão grande assim.

827
01:04:11,764 --> 01:04:13,724
Mas também estou muito otimista.

828
01:04:16,060 --> 01:04:19,480
A Convenção para a Proibição
de Armas Biológicas, por exemplo,

829
01:04:19,564 --> 01:04:22,358
aconteceu no meio da Guerra Fria

830
01:04:23,025 --> 01:04:27,655
apesar das tensões
entre a União Soviética e os EUA.

831
01:04:29,156 --> 01:04:33,536
Eles foram capazes de perceber
que o desenvolvimento de armas biológicas

832
01:04:33,619 --> 01:04:36,247
não era interessante para nenhum dos dois,

833
01:04:36,330 --> 01:04:38,749
e muito menos para o resto do mundo.

834
01:04:41,294 --> 01:04:44,964
A corrida armamentista
favorece velocidade em vez de segurança.

835
01:04:45,715 --> 01:04:48,342
Mas acho importante considerar que,

836
01:04:48,426 --> 01:04:52,430
em algum momento,
o custo da rapidez se torna muito alto.

837
01:04:56,225 --> 01:04:59,270
Não podemos desenvolver algo isoladamente

838
01:05:00,021 --> 01:05:06,611
e jogar para o mundo sem pensar
que fim vai levar no futuro.

839
01:05:07,862 --> 01:05:10,823
Temos que evitar
o momento da bomba atômica.

840
01:05:14,577 --> 01:05:17,705
Os riscos na corrida da IA são enormes.

841
01:05:18,289 --> 01:05:22,001
Acho que muitas pessoas não valorizam
a estabilidade mundial

842
01:05:22,084 --> 01:05:28,174
proporcionada pelo fato de termos
uma força militar superior

843
01:05:28,257 --> 01:05:31,135
nos últimos 75 anos.

844
01:05:32,887 --> 01:05:35,681
Os EUA e nossos aliados

845
01:05:36,557 --> 01:05:38,684
precisam superar a IA dos adversários.

846
01:05:43,314 --> 01:05:44,774
Não há segundo lugar na guerra.

847
01:05:45,524 --> 01:05:49,111
A China traçou um plano ambicioso
para ser líder mundial em IA até 2030.

848
01:05:49,195 --> 01:05:51,656
Dizem que os EUA estão perdendo a corrida…

849
01:05:52,740 --> 01:05:56,160
Vamos acelerar
a adoção da inteligência artificial

850
01:05:56,243 --> 01:05:59,246
para garantir
uma vantagem militar competitiva.

851
01:06:02,875 --> 01:06:05,461
Essa tecnologia está avançando.

852
01:06:05,544 --> 01:06:08,673
Acho que o que não está claro
é até onde vamos chegar.

853
01:06:09,507 --> 01:06:12,760
Nós controlamos a tecnologia
ou ela nos controla?

854
01:06:14,136 --> 01:06:16,973
Não terão segundas chances.

855
01:06:17,807 --> 01:06:20,977
Depois que o caldo entornou,
não tem como consertar.

856
01:06:22,019 --> 01:06:25,189
Seria muito difícil voltar atrás.

857
01:06:28,609 --> 01:06:31,737
E se não agirmos agora,
vai ser tarde demais.

858
01:06:33,114 --> 01:06:34,657
Talvez já seja tarde demais.

859
01:08:48,124 --> 01:08:53,129
Legendas: Júlia Schaefer Trindade



