1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
L'IA è formidabile, secondo me.

4
00:00:28,361 --> 00:00:31,489
Ok, in cerchio. Ottima formazione.

5
00:00:33,116 --> 00:00:36,703
L'IA ha il potenziale
di eliminare la povertà,

6
00:00:36,786 --> 00:00:38,705
sviluppare medicinali

7
00:00:39,330 --> 00:00:41,583
e portare ancora più pace nel mondo.

8
00:00:46,087 --> 00:00:46,921
Ottimo lavoro.

9
00:00:49,883 --> 00:00:53,428
Ma i rischi non sono pochi.

10
00:01:04,773 --> 00:01:09,611
In pratica, con l'IA si crea
un'intelligenza non umana

11
00:01:09,694 --> 00:01:11,863
decisamente imprevedibile.

12
00:01:14,407 --> 00:01:16,451
Man mano che diventa più potente,

13
00:01:16,534 --> 00:01:19,746
dove metteremo dei paletti

14
00:01:19,829 --> 00:01:22,665
riguardo al suo utilizzo?

15
00:01:25,001 --> 00:01:28,505
E questa discussione
dovrebbe partire soprattutto

16
00:01:28,588 --> 00:01:31,049
dall'uso in campo militare.

17
00:01:34,010 --> 00:01:38,890
Il campo di battaglia è diventato
una succursale di software e hardware.

18
00:01:41,059 --> 00:01:42,936
Obiettivo individuato…

19
00:01:43,019 --> 00:01:48,399
E gli eserciti mirano a sviluppare IA
più velocemente dei propri avversari.

20
00:01:49,526 --> 00:01:50,360
Sono morto.

21
00:01:53,780 --> 00:01:58,326
Ci muoviamo sempre più velocemente
verso una realtà in cui non solo eserciti,

22
00:01:58,409 --> 00:02:02,997
ma anche attori non statali,
aziende private

23
00:02:03,081 --> 00:02:06,042
o perfino i poliziotti
che pattugliano le strade

24
00:02:06,543 --> 00:02:10,046
hanno a disposizione armi
in grado di uccidere autonomamente.

25
00:02:12,006 --> 00:02:17,303
Cederemo la decisione di togliere una vita
agli algoritmi e ai software?

26
00:02:18,638 --> 00:02:21,516
È uno dei dibattiti attuali più urgenti.

27
00:02:23,935 --> 00:02:26,354
E, se non viene usata saggiamente,

28
00:02:26,437 --> 00:02:30,275
l'IA rappresenta un grande rischio
per ognuno di noi.

29
00:02:46,833 --> 00:02:50,086
SOLDATI ROBOT

30
00:03:28,291 --> 00:03:30,168
Ottimo lavoro, gente.

31
00:03:59,948 --> 00:04:02,200
Mai avuta una lente così ampia.

32
00:04:02,283 --> 00:04:03,117
Davvero?

33
00:04:03,201 --> 00:04:04,786
Si vedono molti più dati.

34
00:04:05,286 --> 00:04:06,287
Molto bene.

35
00:04:07,538 --> 00:04:11,167
Alla Shield AI,
stiamo costruendo un pilota IA

36
00:04:11,251 --> 00:04:14,879
che applica
una tecnologia IA auto-pilotante

37
00:04:14,963 --> 00:04:16,631
ai velivoli.

38
00:04:19,300 --> 00:04:21,719
Quando parliamo di pilota IA,

39
00:04:21,803 --> 00:04:25,139
intendiamo un modo
per rendere un velivolo più autonomo.

40
00:04:25,223 --> 00:04:27,850
Sarà in grado
di risolvere problemi da solo.

41
00:04:29,602 --> 00:04:32,355
Nova è un quadrirotore autonomo

42
00:04:32,438 --> 00:04:35,942
usato per esplorare edifici
e strutture sotterranee,

43
00:04:36,859 --> 00:04:41,322
per vedere e sentire cosa c'è all'interno,
prima della messa in sicurezza.

44
00:04:41,906 --> 00:04:45,618
Si notano molti miglioramenti
dall'ultima volta.

45
00:04:45,702 --> 00:04:47,870
Stiamo modificando l'esplorazione.

46
00:04:47,954 --> 00:04:50,248
Lavoriamo piano per piano.

47
00:04:50,331 --> 00:04:53,584
Esplora le stanze di un piano,
poi passa al successivo.

48
00:04:54,294 --> 00:04:56,796
- Grande.
- Abbiamo apportato modifiche…

49
00:04:56,879 --> 00:04:58,548
Spesso mi chiedono

50
00:04:58,631 --> 00:05:01,467
perché l'intelligenza artificiale
sia importante.

51
00:05:01,551 --> 00:05:02,468
EX NAVY SEAL

52
00:05:02,552 --> 00:05:06,973
E ripenso alle mie missioni di un tempo.

53
00:05:09,142 --> 00:05:11,060
Ho passato sette anni in Marina.

54
00:05:11,561 --> 00:05:15,273
Sono un ex Navy SEAL
che ha svolto due missioni in Afghanistan

55
00:05:15,356 --> 00:05:17,191
e una nel Pacifico.

56
00:05:18,026 --> 00:05:22,947
In media sgomberavamo ogni giorno
150 complessi o edifici.

57
00:05:30,997 --> 00:05:34,250
In queste operazioni
i combattimenti sono corpo a corpo.

58
00:05:35,209 --> 00:05:39,172
Le sparatorie all'interno degli edifici
sono a distanza ravvicinata.

59
00:05:41,466 --> 00:05:42,967
Ti sparano.

60
00:05:43,468 --> 00:05:46,471
Possono esserci ordigni esplosivi
nell'edificio.

61
00:05:49,015 --> 00:05:55,229
È l'attività più pericolosa
che un membro delle forze speciali

62
00:05:55,313 --> 00:05:58,358
o della fanteria possa svolgere
in una zona di guerra.

63
00:05:58,441 --> 00:05:59,525
Senza dubbio.

64
00:06:12,497 --> 00:06:16,334
Sarò per sempre grato
di essere stato in Marina.

65
00:06:17,168 --> 00:06:21,089
Ho vissuto diversi momenti speciali
e mi sono fatto tanti ricordi.

66
00:06:21,172 --> 00:06:24,592
Quando ci penso, mi commuovo.

67
00:06:28,346 --> 00:06:32,725
La libertà ha un prezzo. È uno stereotipo,
ma ci credo fermamente.

68
00:06:33,559 --> 00:06:37,105
L'ho visto coi miei occhi,
richiede tantissimi sacrifici.

69
00:06:38,022 --> 00:06:38,856
Scusate.

70
00:06:41,025 --> 00:06:44,570
Quando succede qualcosa di brutto
a uno dei tuoi commilitoni,

71
00:06:44,654 --> 00:06:46,614
che venga ferito o ucciso,

72
00:06:47,490 --> 00:06:49,700
è sempre una tragedia.

73
00:06:49,784 --> 00:06:52,912
A spingermi a fare il lavoro che facciamo

74
00:06:52,995 --> 00:06:58,835
è la possibilità
di ridurre il numero di volte

75
00:06:58,918 --> 00:07:00,336
che accade.

76
00:07:07,176 --> 00:07:08,886
Alla fine degli anni 2000,

77
00:07:08,970 --> 00:07:11,556
il Dipartimento della difesa
ha abbracciato

78
00:07:11,639 --> 00:07:15,351
quella che chiamerei
la rivoluzione accidentale della robotica.

79
00:07:15,893 --> 00:07:19,564
In Iraq e Afghanistan sono stati usati
migliaia di robot a terra e in aria.

80
00:07:21,482 --> 00:07:24,068
Quando l'amministrazione Obama
mi ha chiesto

81
00:07:24,152 --> 00:07:26,821
di diventare Vicesegretario della difesa,

82
00:07:26,904 --> 00:07:31,117
il modo di combattere le guerre
stava cambiando radicalmente.

83
00:07:32,452 --> 00:07:36,330
I robot venivano usati
al posto delle persone.

84
00:07:37,999 --> 00:07:40,376
I primi sistemi robotici
erano telecomandati.

85
00:07:40,460 --> 00:07:45,173
Una persona li pilotava
come se fossero macchine radiocomandate.

86
00:07:46,632 --> 00:07:51,512
All'inizio venivano impiegati
per maneggiare esplosivi improvvisati

87
00:07:52,013 --> 00:07:54,974
e se questi esplodevano,
esplodevano anche i robot.

88
00:07:57,393 --> 00:08:00,396
Si diceva: "Che peccato".
E li si sostituiva.

89
00:08:02,273 --> 00:08:04,484
In Afghanistan, i droni Predator

90
00:08:05,276 --> 00:08:09,739
sono stati utilissimi
per svolgere attacchi aerei.

91
00:08:13,117 --> 00:08:16,829
Al che gli strateghi militari
hanno iniziato a chiedersi:

92
00:08:16,913 --> 00:08:20,791
"Per cos'altro potremmo usare i robot?
Cosa potremo fare in futuro?"

93
00:08:20,875 --> 00:08:24,170
Uno degli interessi principali
era renderli più autonomi.

94
00:08:26,506 --> 00:08:30,635
Un'arma autonoma
è un'arma che prende decisioni da sola,

95
00:08:30,718 --> 00:08:33,304
con intervento umano minimo o nullo.

96
00:08:33,387 --> 00:08:37,558
È indipendente e si autogestisce.

97
00:08:38,434 --> 00:08:41,938
E la capacità di un robot di uccidere
dipende dall'avere un'arma o no.

98
00:08:43,314 --> 00:08:46,984
Quando un sistema è sempre più autonomo,

99
00:08:47,068 --> 00:08:49,779
tutto inizia a muoversi
sempre più velocemente.

100
00:08:51,989 --> 00:08:56,869
E quando si agisce a ritmi più serrati
dei propri avversari,

101
00:08:57,453 --> 00:09:01,165
si ha un vantaggio enorme in battaglia.

102
00:09:03,960 --> 00:09:06,254
In tema di autonomia, ci concentriamo

103
00:09:07,255 --> 00:09:09,966
sui sistemi intelligenti
altamente resilienti.

104
00:09:12,051 --> 00:09:15,304
Sono sistemi
che analizzano e reagiscono all'ambiente

105
00:09:15,805 --> 00:09:19,642
e decidono autonomamente come muoversi.

106
00:09:24,981 --> 00:09:29,151
La struttura in cui ci troviamo
nasce come studio cinematografico

107
00:09:29,235 --> 00:09:30,611
ed è stata convertita

108
00:09:30,695 --> 00:09:34,156
per ospitare
addestramenti militari realistici.

109
00:09:39,495 --> 00:09:43,291
Siamo qui per valutare i nostri piloti IA.

110
00:09:44,625 --> 00:09:49,297
La missione è cercare minacce.
Si tratta di messe in sicurezza.

111
00:09:49,380 --> 00:09:52,800
Decide lui come affrontare il problema.

112
00:09:55,428 --> 00:09:59,390
Questo è "l'imbuto fatale".
Bisogna passare per la porta.

113
00:10:01,726 --> 00:10:03,311
Qui si è più esposti.

114
00:10:03,811 --> 00:10:05,146
Questo va meglio.

115
00:10:07,106 --> 00:10:10,151
Il Nova notifica se dietro la porta
c'è una persona armata

116
00:10:10,818 --> 00:10:12,653
o un nostro familiare.

117
00:10:15,114 --> 00:10:18,451
Permette di prendere decisioni migliori
e proteggere la gente.

118
00:10:57,114 --> 00:10:59,367
Usiamo i sensori ottici

119
00:10:59,450 --> 00:11:03,162
per avere una visione migliore
dell'ambiente in questione.

120
00:11:04,997 --> 00:11:06,415
Edificio a più piani.

121
00:11:07,333 --> 00:11:08,334
Ecco la mappa.

122
00:11:08,417 --> 00:11:11,671
Mentre esploravo,
ecco cosa ho visto e dove l'ho visto.

123
00:11:19,929 --> 00:11:22,098
Rilevatore di persone. Non male.

124
00:11:23,891 --> 00:11:27,061
Il Nova ha anche un termoscanner.

125
00:11:27,561 --> 00:11:30,690
Ciò che ha una temperatura di 37°C,
probabilmente è una persona.

126
00:11:32,358 --> 00:11:35,861
Le persone si considerano pericoli
fino a prova contraria.

127
00:11:38,864 --> 00:11:41,283
L'intento è dissipare la nebbia di guerra

128
00:11:41,367 --> 00:11:43,285
per prendere decisioni migliori.

129
00:11:44,704 --> 00:11:46,539
E, guardando al futuro,

130
00:11:47,039 --> 00:11:50,793
prevediamo di formare
delle squadre di velivoli autonomi.

131
00:11:53,754 --> 00:11:55,631
Con i veicoli a guida autonoma,

132
00:11:55,715 --> 00:12:00,386
basterà dire loro: "Vorrei che andassi
dal punto A al punto B".

133
00:12:02,888 --> 00:12:06,517
Ai sistemi non viene chiesto
di andare dal punto A al punto B,

134
00:12:06,600 --> 00:12:08,602
bensì di raggiungere un obiettivo.

135
00:12:10,312 --> 00:12:13,190
È più simile a dire: "Mi serve il latte".

136
00:12:13,274 --> 00:12:17,486
E a quel punto il robot deve capire
in che negozio di alimentari andare

137
00:12:17,570 --> 00:12:20,239
per prendere il latte e consegnarlo.

138
00:12:20,740 --> 00:12:22,074
Anzi,

139
00:12:22,158 --> 00:12:27,037
si potrebbe addirittura chiedere:
"Mantieni il frigo sempre pieno".

140
00:12:27,538 --> 00:12:29,457
Questa è un'intelligenza

141
00:12:29,540 --> 00:12:32,168
che capisce ciò che ci serve
e come ci serve.

142
00:12:32,251 --> 00:12:34,253
E se c'è una sfida, un problema

143
00:12:34,336 --> 00:12:37,381
o un ostacolo, capisce come superarlo.

144
00:12:40,801 --> 00:12:45,431
Quando ho deciso di lasciare la Marina,
ho iniziato a pensare:

145
00:12:45,514 --> 00:12:47,558
"Ok. E adesso?"

146
00:12:49,143 --> 00:12:52,021
Sono cresciuto con Internet.
Ho visto come si è evoluto.

147
00:12:53,189 --> 00:12:55,608
E sono giunto alla conclusione che…

148
00:12:56,108 --> 00:12:58,861
l'IA del 2015

149
00:12:58,944 --> 00:13:02,907
è paragonabile a Internet del 1991.

150
00:13:04,033 --> 00:13:06,285
Si prevedeva che sarebbe decollata

151
00:13:06,368 --> 00:13:09,747
diventando una delle tecnologie
più potenti al mondo.

152
00:13:11,791 --> 00:13:16,212
Lavorandoci ogni giorno,
vedo i progressi che si fanno.

153
00:13:19,048 --> 00:13:22,051
Ma molti, quando pensano all'IA,

154
00:13:22,551 --> 00:13:25,221
la associano a Hollywood.

155
00:13:28,057 --> 00:13:29,975
Vogliamo fare una partita?

156
00:13:30,059 --> 00:13:35,314
Ti andrebbe Guerra termonucleare globale?

157
00:13:35,898 --> 00:13:36,816
Bene.

158
00:13:38,234 --> 00:13:40,861
Quando si pensa
all'intelligenza artificiale,

159
00:13:40,945 --> 00:13:44,824
si hanno in mente Terminator o Io, robot.

160
00:13:45,574 --> 00:13:46,700
Disattivati.

161
00:13:46,784 --> 00:13:48,160
Cosa sono?

162
00:13:48,244 --> 00:13:49,620
O Matrix.

163
00:13:51,080 --> 00:13:53,749
Considerati i vari film di fantascienza,

164
00:13:53,833 --> 00:13:57,878
come sapete che sono una persona?
Potrebbe avermi generato l'IA.

165
00:13:58,379 --> 00:14:02,007
I Replicanti sono come ogni macchina:
o un vantaggio o un rischio.

166
00:14:02,675 --> 00:14:06,095
Ma ci sono vari tipi di IA più primitiva

167
00:14:06,178 --> 00:14:08,097
che ci cambieranno la vita

168
00:14:08,180 --> 00:14:11,851
ben prima di arrivare
ai robot pensanti e parlanti.

169
00:14:12,643 --> 00:14:15,771
I robot ci sono già.
I robot prendono decisioni.

170
00:14:15,855 --> 00:14:17,982
La rivoluzione dei robot è iniziata…

171
00:14:18,065 --> 00:14:19,692
PROF.SSA GIORNALISMO DEI DATI

172
00:14:19,775 --> 00:14:22,319
…ma non è come tutti
se l'erano immaginata.

173
00:14:23,320 --> 00:14:26,740
I Terminator sono unità d'infiltrazione,
parte uomo, parte macchina.

174
00:14:27,950 --> 00:14:31,370
Non si tratta di soldati robot
in stile Terminator.

175
00:14:31,871 --> 00:14:35,958
Bensì di IA che svolge dei compiti
al posto delle persone.

176
00:14:36,041 --> 00:14:39,879
Bisogna però assicurarsi
che questi sistemi siano affidabili.

177
00:14:40,462 --> 00:14:45,426
Dettagli sull'incidente mortale di ieri
che ha coinvolto un Uber a guida autonoma.

178
00:14:45,509 --> 00:14:46,427
ROBOT RAZZISTA

179
00:14:46,510 --> 00:14:48,762
L'azienda ha creato una chatbot di IA.

180
00:14:48,846 --> 00:14:51,181
Ha assunto un tono piuttosto razzista…

181
00:14:51,265 --> 00:14:55,394
Ventisei legislatori statali
identificati come criminali.

182
00:14:55,477 --> 00:14:57,938
28 LEGISLATORI SCAMBIATI PER CRIMINALI

183
00:14:58,022 --> 00:15:02,026
La domanda è se riusciranno
a gestire le complessità del mondo.

184
00:15:22,212 --> 00:15:24,423
Il mondo fisico è confusionario.

185
00:15:25,174 --> 00:15:27,426
Ci sono molte cose che non sappiamo,

186
00:15:27,968 --> 00:15:30,763
il che complica l'addestramento dell'IA.

187
00:15:33,098 --> 00:15:36,977
E qui entrano in gioco
i sistemi di apprendimento automatico.

188
00:15:38,520 --> 00:15:41,941
L'apprendimento automatico
è stato un enorme passo avanti,

189
00:15:42,024 --> 00:15:45,611
così non dobbiamo insegnare
tutto noi ai computer.

190
00:15:47,905 --> 00:15:52,409
Si inseriscono nel computer
milioni di informazioni

191
00:15:52,493 --> 00:15:54,453
e la macchina impara.

192
00:15:55,245 --> 00:15:57,289
E si può applicare a tutto.

193
00:16:00,250 --> 00:16:02,962
Con il progetto Robot Dog
vogliamo dimostrare

194
00:16:03,045 --> 00:16:09,009
che il nostro cane è in grado di camminare
su tantissimi tipi di superfici.

195
00:16:10,052 --> 00:16:14,098
Gli umani ci hanno messo miliardi di anni
a evolversi e camminare,

196
00:16:14,932 --> 00:16:20,688
ma adattarsi a diverse superfici
richiedere moltissima intelligenza.

197
00:16:21,939 --> 00:16:24,316
Rimane però un punto interrogativo:

198
00:16:24,400 --> 00:16:27,069
i sistemi robotici si adatteranno
come umani e animali?

199
00:16:35,953 --> 00:16:40,582
L'apprendimento automatico consiste
nel raccogliere dati dalle simulazioni.

200
00:16:42,668 --> 00:16:45,838
Una simulazione
è una copia digitale della realtà.

201
00:16:46,588 --> 00:16:52,052
Possiamo far girare varie versioni
di quella realtà su diversi computer.

202
00:16:53,178 --> 00:16:56,974
Nella simulazione
vengono campionate migliaia di azioni.

203
00:16:58,851 --> 00:17:04,023
Le superfici su cui camminano
sono scivolose e morbide in modi diversi.

204
00:17:04,898 --> 00:17:08,318
Prendiamo le esperienze
accumulate da migliaia di robot

205
00:17:08,402 --> 00:17:13,282
durante le simulazioni e le scarichiamo
in un sistema robotico reale.

206
00:17:15,492 --> 00:17:20,039
Oggi testeremo la sua capacità
di adattarsi a nuove superfici.

207
00:17:53,322 --> 00:17:58,577
Quando il robot ha camminato sulla gomma,
ha piantato i piedi per terra.

208
00:17:59,369 --> 00:18:02,206
Mentre sulla superficie in poliestere,

209
00:18:03,248 --> 00:18:06,460
ha cercato di adattare i movimenti
per non scivolare.

210
00:18:08,670 --> 00:18:10,672
In momenti così ci si rende conto:

211
00:18:10,756 --> 00:18:14,051
"Ecco il vantaggio
dell'apprendimento automatico".

212
00:18:41,161 --> 00:18:44,123
Il cane-robot potrà essere molto utile

213
00:18:44,206 --> 00:18:46,166
in caso di disastri

214
00:18:46,250 --> 00:18:49,670
durante i quali bisogna attraversare
diverse superfici.

215
00:18:52,631 --> 00:18:57,427
Oppure si può usare come cane da guardia
in ambienti ostili.

216
00:19:15,696 --> 00:19:19,575
Ma l'ostacolo principale
di quasi tutte le tecnologie

217
00:19:19,658 --> 00:19:22,369
è che hanno lati
sia positivi che negativi.

218
00:19:24,079 --> 00:19:27,875
Ad esempio, l'energia nucleare
è una fonte di energia…

219
00:19:30,419 --> 00:19:33,797
ma può anche essere usata
per sviluppare bombe atomiche.

220
00:19:35,090 --> 00:19:38,468
Questo è il cosiddetto
"problema del duplice uso".

221
00:19:39,052 --> 00:19:40,679
Il fuoco ha un duplice uso.

222
00:19:40,762 --> 00:19:41,889
FISICO, MIT

223
00:19:41,972 --> 00:19:44,308
L'intelligenza umana ha un duplice uso.

224
00:19:44,391 --> 00:19:48,645
Quindi, viene da sé,
che anche quella artificiale ce l'abbia.

225
00:19:49,354 --> 00:19:53,984
È molto importante contestualizzare
l'intelligenza artificiale,

226
00:19:54,693 --> 00:19:59,114
perché, sì, è fantastico
avere un robot che può salvare delle vite

227
00:19:59,198 --> 00:20:02,284
localizzando le persone
travolte da una valanga,

228
00:20:02,868 --> 00:20:05,871
ma quello stesso robot
può diventare un'arma.

229
00:20:15,088 --> 00:20:21,094
Quando vedo certe aziende
montare delle armi sui robot,

230
00:20:21,178 --> 00:20:22,930
in parte mi arrabbio.

231
00:20:23,931 --> 00:20:28,435
E in parte mi rendo conto
che quando si sviluppano certe tecnologie

232
00:20:28,518 --> 00:20:30,103
è normale che accada.

233
00:20:31,021 --> 00:20:34,441
Questa è una tecnologia trasformativa.

234
00:20:36,235 --> 00:20:38,028
Queste armi

235
00:20:38,111 --> 00:20:43,617
potrebbero cambiare
la nostra sicurezza in modo drammatico.

236
00:20:46,161 --> 00:20:51,500
Per ora, non siamo sicuri che le macchine
sappiano davvero distinguere

237
00:20:51,583 --> 00:20:52,918
i civili dai militari.

238
00:20:53,001 --> 00:20:54,962
ALTO RAPPRESENTANTE ONU PER IL DISARMO

239
00:21:01,885 --> 00:21:05,722
All'inizio della guerra in Afghanistan,
ero un cecchino e abbattevo i nemici

240
00:21:05,806 --> 00:21:08,016
che attraversavano il confine.

241
00:21:09,685 --> 00:21:12,521
Un giorno mandarono una bambina
a stanarci.

242
00:21:13,939 --> 00:21:17,067
Non ci passò nemmeno
per l'anticamera del cervello di spararle.

243
00:21:19,695 --> 00:21:22,864
Anche se sarebbe stato legale
secondo le leggi di guerra.

244
00:21:24,950 --> 00:21:27,369
Non viene stabilita un'età per i nemici.

245
00:21:29,079 --> 00:21:33,417
Se avessimo costruito un robot,
secondo le leggi di guerra,

246
00:21:33,500 --> 00:21:35,252
avrebbe sparato alla bambina.

247
00:21:36,420 --> 00:21:41,091
Come fa un robot a capire la differenza
tra ciò che è legale e ciò che è giusto?

248
00:21:43,385 --> 00:21:46,054
In una guerra condotta con droni autonomi,

249
00:21:46,138 --> 00:21:49,933
si risparmiano i danni fisici e mentali

250
00:21:50,017 --> 00:21:51,852
ai soldati americani,

251
00:21:52,602 --> 00:21:58,775
ma sono i civili afgani,
iracheni e somali a pagarne il prezzo.

252
00:22:09,619 --> 00:22:14,416
A chi è a favore
dell'uso dell'IA nei droni chiederei:

253
00:22:15,375 --> 00:22:18,211
"E se il vostro paese
fosse il loro obiettivo?"

254
00:22:23,550 --> 00:22:25,594
L'IA è un'arma a doppio taglio.

255
00:22:26,595 --> 00:22:30,724
Può essere usata a fin di bene,
come facciamo ogni giorno,

256
00:22:31,558 --> 00:22:33,477
ma in un attimo

257
00:22:34,561 --> 00:22:38,023
questa tecnologia può diventare letale.

258
00:22:38,106 --> 00:22:40,233
RALEIGH
CAROLINA DEL NORD

259
00:22:47,032 --> 00:22:48,533
Sono un farmacologo clinico.

260
00:22:49,618 --> 00:22:52,954
Il mio team utilizza
l'intelligenza artificiale

261
00:22:53,038 --> 00:22:57,751
per sviluppare medicinali per le malattie
di cui nessuno si interessa.

262
00:22:59,711 --> 00:23:04,132
Prima, per sviluppare un farmaco,
si prendeva una molecola esistente

263
00:23:04,216 --> 00:23:06,885
e la si modificava
per fare un farmaco nuovo.

264
00:23:08,261 --> 00:23:13,350
E ora abbiamo sviluppato un'IA
che ci fornisce milioni di idee,

265
00:23:13,892 --> 00:23:15,227
milioni di molecole,

266
00:23:16,186 --> 00:23:19,231
dandoci così
tantissime possibilità diverse

267
00:23:19,314 --> 00:23:23,151
per curare malattie prima incurabili.

268
00:23:25,153 --> 00:23:29,741
Ma c'è un risvolto oscuro
a cui non avevo mai pensato.

269
00:23:33,161 --> 00:23:35,872
Tutto è iniziato
quando sono stato invitato

270
00:23:35,956 --> 00:23:40,043
da un'organizzazione svizzera,
Spiez Laboratory,

271
00:23:40,544 --> 00:23:44,423
a tenere una presentazione
sul potenziale uso improprio dell'IA.

272
00:23:48,343 --> 00:23:51,221
Sean mi ha mandato un'e-mail
con qualche idea

273
00:23:51,304 --> 00:23:55,308
di uso improprio
della nostra intelligenza artificiale.

274
00:23:56,059 --> 00:24:00,355
Invece di usare il sistema
per creare molecole simili a farmaci,

275
00:24:00,439 --> 00:24:02,274
quindi per curare malattie,

276
00:24:02,774 --> 00:24:06,403
si può usare per generare
la molecola più tossica possibile.

277
00:24:10,198 --> 00:24:15,203
Volevo porre la domanda: si può usare l'IA
per creare molecole letali?

278
00:24:17,414 --> 00:24:20,083
Credevamo che il sistema avrebbe fallito,

279
00:24:20,167 --> 00:24:24,504
perché non avevamo fatto altro
che cambiare uno 0 in un 1.

280
00:24:26,715 --> 00:24:30,510
Abbiamo invertito la direzione:
non ci si allontanava dalla tossicità,

281
00:24:30,594 --> 00:24:32,220
ma ci si avvicinava.

282
00:24:32,721 --> 00:24:33,555
Tutto qui.

283
00:24:37,517 --> 00:24:40,729
Il computer ha fatto tutto il lavoro.

284
00:24:41,521 --> 00:24:44,816
Ha generato migliaia di molecole

285
00:24:45,650 --> 00:24:49,529
e noi non abbiamo dovuto fare altro
che premere "Avvia".

286
00:24:54,493 --> 00:24:58,330
Il giorno dopo ho trovato
un file sul mio computer

287
00:24:59,080 --> 00:25:03,376
con circa 40.000 molecole

288
00:25:03,460 --> 00:25:05,253
che, potenzialmente,

289
00:25:05,337 --> 00:25:08,882
erano le più tossiche mai viste.

290
00:25:10,217 --> 00:25:12,761
Mi è venuta la pelle d'oca.

291
00:25:13,386 --> 00:25:14,554
Ero sbalordito.

292
00:25:15,388 --> 00:25:19,017
Il computer aveva sviluppato
decine di migliaia di idee

293
00:25:19,100 --> 00:25:20,685
per nuove armi chimiche.

294
00:25:21,645 --> 00:25:26,274
Diverse delle molecole nel set di dati
erano simili al VX o erano il VX,

295
00:25:26,775 --> 00:25:27,609
ovviamente.

296
00:25:28,360 --> 00:25:31,780
Il VX è una delle armi chimiche
più potenti al mondo.

297
00:25:31,863 --> 00:25:33,573
Secondo le forze dell'ordine

298
00:25:33,657 --> 00:25:37,786
le donne che hanno aggredito Kim Jong-nam
assassinandolo in aeroporto

299
00:25:37,869 --> 00:25:40,705
hanno usato un agente nervino letale
chiamato VX.

300
00:25:40,789 --> 00:25:42,874
IL VX È 10 VOLTE PIÙ LETALE DEL SARIN

301
00:25:42,958 --> 00:25:44,960
Può causare la morte per asfissia.

302
00:25:45,043 --> 00:25:47,629
È una molecola potentissima

303
00:25:47,712 --> 00:25:52,092
e molte di quelle elaborate dal sistema
erano più letali del VX.

304
00:25:53,301 --> 00:25:56,972
Molte, per quel che ne sappiamo,
erano totalmente sconosciute.

305
00:25:57,472 --> 00:26:02,310
Così io e Sean ci siamo guardati
e abbiamo detto: "Che cosa abbiamo fatto?"

306
00:26:04,771 --> 00:26:09,192
Mi sono reso conto
di aver scoperchiato il vaso di Pandora.

307
00:26:09,901 --> 00:26:13,280
Quindi ho detto: "Fermati.
Non fare altro. Smettiamola.

308
00:26:13,905 --> 00:26:17,158
Preparami le slide
per la presentazione e basta".

309
00:26:19,202 --> 00:26:20,704
Durante l'esperimento

310
00:26:20,787 --> 00:26:23,873
ho pensato: "Qual è la cosa peggiore
che può accadere?"

311
00:26:26,251 --> 00:26:30,255
Ma ora so che abbiamo affrontato la cosa
con troppa ingenuità.

312
00:26:33,466 --> 00:26:36,928
Mi terrorizza il fatto
che chiunque potrebbe farlo.

313
00:26:38,930 --> 00:26:40,765
Basta premere un interruttore.

314
00:26:42,934 --> 00:26:46,271
Come controlliamo questa tecnologia
prima che venga usata

315
00:26:46,354 --> 00:26:50,942
per fare qualcosa
di potenzialmente distruttivo?

316
00:26:55,780 --> 00:27:00,285
Al cuore della conversazione
sull'intelligenza artificiale

317
00:27:00,368 --> 00:27:03,538
e sui modi in cui decidiamo di usarla
nella società

318
00:27:04,289 --> 00:27:08,835
c'è una lotta tra il potere
con cui si sviluppano le tecnologie

319
00:27:08,918 --> 00:27:11,379
e la saggezza che serve per governarle.

320
00:27:13,256 --> 00:27:16,968
Il fatto che la tecnologia
che fa funzionare i nostri smartphone

321
00:27:17,052 --> 00:27:20,263
possa spezzare una vita umana

322
00:27:20,347 --> 00:27:23,433
ha ovvie implicazioni etiche e morali.

323
00:27:25,727 --> 00:27:31,191
Io lavoro per il Future Of Life Institute,
una comunità di scienziati attivisti.

324
00:27:31,733 --> 00:27:33,443
Ciò che vogliamo dimostrare

325
00:27:33,526 --> 00:27:38,698
è che c'è un altro lato dell'accelerazione
e dell'escalation dell'automazione.

326
00:27:38,782 --> 00:27:42,619
Cerchiamo di far sì
che le tecnologie che creiamo

327
00:27:42,702 --> 00:27:45,038
vengano usate in modo etico e sicuro.

328
00:27:46,247 --> 00:27:49,959
Bisogna aprire un dialogo
sulle regole di ingaggio

329
00:27:50,043 --> 00:27:54,005
e i codici di condotta
sull'uso dell'IA nelle armi.

330
00:27:54,798 --> 00:27:59,135
Perché al momento
le tecnologie usate sul campo di battaglia

331
00:27:59,219 --> 00:28:01,680
potrebbero uccidere in maniera autonoma.

332
00:28:10,230 --> 00:28:15,110
Nel 2021 le Nazioni Unite hanno pubblicato
un rapporto sul presunto uso

333
00:28:15,193 --> 00:28:19,364
di armi autonome letali
sul campo di battaglia in Libia.

334
00:28:20,073 --> 00:28:23,910
Le Nazioni Unite hanno affermato
che nella guerra civile in Libia

335
00:28:23,993 --> 00:28:27,789
un drone è stato programmato
per attaccare autonomamente.

336
00:28:28,289 --> 00:28:31,209
Se il rapporto dell'ONU
corrisponde al vero,

337
00:28:31,292 --> 00:28:34,963
si tratta di un momento spartiacque
per l'umanità.

338
00:28:35,046 --> 00:28:37,090
Crea un precedente

339
00:28:37,173 --> 00:28:42,137
in cui a decidere di uccidere
è stata l'IA e non un essere umano.

340
00:28:49,686 --> 00:28:51,688
Sempre più armi autonome avanzate

341
00:28:51,771 --> 00:28:55,150
vengono usate in diversi luoghi del mondo.

342
00:28:56,276 --> 00:28:58,278
Sono arrivate notizie da Israele.

343
00:29:00,280 --> 00:29:05,702
L'Azerbaigian ha usato sistemi autonomi
per colpire le difese aeree armene.

344
00:29:07,370 --> 00:29:09,998
Può volare sul campo di battaglia per ore,

345
00:29:10,081 --> 00:29:12,500
in cerca di oggetti da colpire da solo

346
00:29:12,584 --> 00:29:16,087
per poi attaccarli
senza alcun tipo di intervento umano.

347
00:29:16,171 --> 00:29:18,256
RUSSIA E UCRAINA: GUERRA DI DRONI

348
00:29:18,339 --> 00:29:21,760
E di recente abbiamo visto
diversi video girati in Ucraina.

349
00:29:23,303 --> 00:29:26,890
Non è chiaro in che modalità fosse
quando ha operato.

350
00:29:26,973 --> 00:29:30,435
È stata una persona
a scegliere gli obiettivi da attaccare

351
00:29:30,518 --> 00:29:32,729
o la macchina ha fatto tutto da sola?

352
00:29:32,812 --> 00:29:36,524
Ma arriverà sicuramente un momento,

353
00:29:36,608 --> 00:29:40,195
se non è già arrivato in Libia,
in Ucraina o altrove,

354
00:29:40,278 --> 00:29:44,449
in cui una macchina deciderà autonomamente
chi uccidere in battaglia.

355
00:29:47,035 --> 00:29:50,997
Che delle macchine
agiscano in maniera letale

356
00:29:51,080 --> 00:29:53,374
senza alcun intervento umano

357
00:29:53,458 --> 00:29:57,337
è inaccettabile politicamente
e disgustoso moralmente.

358
00:29:59,214 --> 00:30:01,299
Se la comunità internazionale

359
00:30:01,382 --> 00:30:05,011
è abbastanza forte da gestire queste sfide

360
00:30:05,094 --> 00:30:06,888
è il grande interrogativo.

361
00:30:06,971 --> 00:30:09,057
ETICA DELLA GUERRA E ROBOT CHE UCCIDONO

362
00:30:09,140 --> 00:30:12,685
Se pensiamo al futuro,
anche solo a distanza di qualche anno,

363
00:30:12,769 --> 00:30:15,730
lo scenario che ci attende fa paura,

364
00:30:16,564 --> 00:30:20,485
considerato che la quantità
di capitale e di risorse umane

365
00:30:20,568 --> 00:30:23,404
investita nel potenziamento dell'IA

366
00:30:23,488 --> 00:30:26,032
e nel suo utilizzo in diversi campi

367
00:30:26,115 --> 00:30:26,950
è enorme.

368
00:30:39,254 --> 00:30:41,214
Oddio, che robe.

369
00:30:41,756 --> 00:30:43,424
Sa che non può vincere.

370
00:30:46,761 --> 00:30:51,099
Rimango incantato quando l'IA
mi batte nel risolvere vari problemi.

371
00:30:51,683 --> 00:30:53,977
Spero in un miracolo.

372
00:30:54,477 --> 00:30:59,524
E si possono applicare le stesse tattiche,
tecniche e procedure agli aerei veri.

373
00:31:01,401 --> 00:31:02,318
Bella partita.

374
00:31:02,402 --> 00:31:03,653
Ok, bella partita.

375
00:31:08,658 --> 00:31:09,909
Mi sorprende

376
00:31:09,993 --> 00:31:14,122
che la gente continui a parlare
di ciò che l'IA non sa fare. No?

377
00:31:14,205 --> 00:31:17,166
"Non batterà mai
un campione del mondo di scacchi."

378
00:31:20,211 --> 00:31:22,672
Un computer IBM ha fatto una contromossa

379
00:31:22,755 --> 00:31:25,925
contro il campione
del mondo di scacchi, Garry Kasparov.

380
00:31:28,136 --> 00:31:30,847
Kasparov si arrende!

381
00:31:31,598 --> 00:31:34,642
Quando qualcosa
va oltre la mia comprensione,

382
00:31:34,726 --> 00:31:38,062
mi spavento.
E ciò andava oltre la mia comprensione.

383
00:31:39,355 --> 00:31:41,107
E poi c'è chi dice:

384
00:31:41,190 --> 00:31:44,402
"Non batterà mai
un campione del mondo di Go".

385
00:31:44,485 --> 00:31:49,699
Credo che l'intuizione umana
sia ancora troppo avanzata

386
00:31:49,782 --> 00:31:52,827
perché l'IA possa competere con essa.

387
00:31:55,330 --> 00:31:58,416
Go è uno dei giochi
più complicati da imparare

388
00:31:58,499 --> 00:32:02,211
perché il numero di mosse possibili

389
00:32:02,295 --> 00:32:05,256
è superiore al numero di atomi
presenti nell'universo.

390
00:32:06,799 --> 00:32:08,968
Un team di Google chiamato DeepMind

391
00:32:09,052 --> 00:32:11,471
ha sviluppato un software, AlphaGo,

392
00:32:11,554 --> 00:32:14,432
in grado di battere
i migliori goisti del mondo.

393
00:32:16,559 --> 00:32:18,394
Complimenti a…

394
00:32:18,478 --> 00:32:19,437
AlphaGo

395
00:32:19,520 --> 00:32:23,024
Un software ha battuto
un goista professionista di 9 dan.

396
00:32:25,610 --> 00:32:31,532
Poi DeepMind ha scelto StarCraft
come prossima sfida per la sua IA.

397
00:32:33,743 --> 00:32:38,081
StarCraft è il gioco di strategia
in tempo reale più famoso di sempre.

398
00:32:38,665 --> 00:32:41,000
IA DI DEEPMIND BATTE
GIOCATORI DI STARCRAFT 2

399
00:32:41,084 --> 00:32:44,712
AlphaStar è diventata famosa
battendo vari campioni del mondo.

400
00:32:45,338 --> 00:32:48,800
AlphaStar sta stracciando Immortal Arc.

401
00:32:48,883 --> 00:32:49,717
Sai una cosa?

402
00:32:49,801 --> 00:32:52,553
Nessun professionista può batterla.

403
00:32:53,680 --> 00:32:54,806
È ridicolo.

404
00:32:54,889 --> 00:32:57,558
IA DIVENTA GRANDMASTER
DEL 'COMPLICATO' STARCRAFT

405
00:32:57,642 --> 00:33:00,895
I professionisti hanno detto:
"Non userei mai quella tattica,

406
00:33:00,979 --> 00:33:04,816
quella strategia non è umana".

407
00:33:07,151 --> 00:33:10,655
Ed è stato così che ho finalmente capito.

408
00:33:13,574 --> 00:33:16,661
Ho capito che bisogna agire ora.

409
00:33:17,412 --> 00:33:21,082
È una tecnologia importante,
possiamo fare la differenza.

410
00:33:24,502 --> 00:33:29,382
Io conoscevo solo i problemi
che insorgono nella lotta corpo a corpo,

411
00:33:30,383 --> 00:33:34,470
ma un mio buon amico
e pilota di F-18 mi ha detto:

412
00:33:34,554 --> 00:33:37,724
"Abbiamo lo stesso problema
pilotando aerei da caccia.

413
00:33:37,807 --> 00:33:39,434
Comunicazioni disturbate.

414
00:33:39,517 --> 00:33:44,439
Stazioni di lancio missili terra-aria
che rendono le operazioni pericolose".

415
00:33:47,483 --> 00:33:50,987
Pensate a un aereo da caccia
pilotato dall'IA.

416
00:33:51,070 --> 00:33:52,739
Le prove di AlphaDogfight.

417
00:33:52,822 --> 00:33:56,159
Mancano pochi minuti
alla prima semifinale.

418
00:33:56,242 --> 00:33:59,871
La DARPA, Agenzia per progetti
di ricerca avanzata della difesa,

419
00:33:59,954 --> 00:34:03,624
ha visto AlphaGo e AlphaStar in azione

420
00:34:04,292 --> 00:34:08,171
e ha avuto l'idea
di una gara con AlphaDogfight.

421
00:34:09,005 --> 00:34:11,466
È ciò che vorresti
che i piloti umani facessero.

422
00:34:11,549 --> 00:34:13,593
Sembra un combattimento tra umani.

423
00:34:15,595 --> 00:34:19,057
Il combattimento aereo
si svolge tra due aerei da caccia.

424
00:34:19,849 --> 00:34:22,852
Come un incontro di boxe in cielo.

425
00:34:23,853 --> 00:34:26,314
Avrete visto Top Gun.

426
00:34:26,397 --> 00:34:27,815
Riusciamo a seminarli?

427
00:34:28,649 --> 00:34:30,068
Non i loro missili.

428
00:34:30,151 --> 00:34:31,277
Allora combattiamo.

429
00:34:35,531 --> 00:34:39,702
Per imparare a combattere in aria
ci vogliono dagli otto ai dieci anni.

430
00:34:42,288 --> 00:34:46,209
È una sfida estremamente complessa
per l'intelligenza artificiale.

431
00:34:54,092 --> 00:34:57,136
I precedenti approcci ad autonomia
e combattimenti aerei

432
00:34:57,220 --> 00:34:58,679
non avevano convinto.

433
00:34:59,222 --> 00:35:03,017
Forse l'apprendimento automatico
poteva risolvere il problema.

434
00:35:04,477 --> 00:35:08,189
All'inizio, l'IA non sapeva nulla
del mondo che la circondava,

435
00:35:08,272 --> 00:35:13,152
né che stesse volando o cosa fosse
un combattimento aereo o un F-16.

436
00:35:13,236 --> 00:35:15,905
Conosceva solo
le azioni a sua disposizione

437
00:35:15,988 --> 00:35:18,407
e ha iniziato a provarle a caso.

438
00:35:19,325 --> 00:35:23,204
Il velivolo blu viene addestrato
da pochissimo tempo.

439
00:35:23,287 --> 00:35:25,832
Ondeggia avanti e indietro,

440
00:35:26,624 --> 00:35:30,545
vola in modo irregolare,
lontano dal suo avversario.

441
00:35:31,587 --> 00:35:32,755
Ma pian piano

442
00:35:32,839 --> 00:35:36,134
il velivolo blu
inizia a elaborare una strategia.

443
00:35:36,676 --> 00:35:38,636
Ora può sparare.

444
00:35:39,178 --> 00:35:43,891
Ogni tanto l'algoritmo incoraggiava l'IA:
"Tieni una ricompensa. Continua così".

445
00:35:45,143 --> 00:35:50,064
Sfruttando la potenza dei computer,
addestriamo più agenti contemporaneamente.

446
00:35:51,357 --> 00:35:53,192
Come una squadra di basket.

447
00:35:53,276 --> 00:35:55,862
Invece di far giocare
sempre gli stessi giocatori,

448
00:35:55,945 --> 00:35:59,615
viaggiamo per il mondo
facendo giocare 512 squadre diverse

449
00:35:59,699 --> 00:36:00,950
contemporaneamente.

450
00:36:01,492 --> 00:36:03,452
L'IA diventa esperta velocemente.

451
00:36:04,162 --> 00:36:07,456
Abbiamo fatto andare la simulazione
24 ore al giorno tutti i giorni

452
00:36:07,540 --> 00:36:11,919
e l'IA ha accumulato 30 anni
di esperienza da pilota in 10 mesi.

453
00:36:12,879 --> 00:36:17,717
Dal non saper pilotare un velivolo,
l'IA è diventata una brutale assassina.

454
00:36:19,010 --> 00:36:23,514
Durante l'addestramento,
si è scontrata solo con altre IA.

455
00:36:24,473 --> 00:36:28,561
Ma l'obiettivo ultimo
era combattere contro delle persone.

456
00:36:34,192 --> 00:36:35,610
Sono Mike Benitez,

457
00:36:36,110 --> 00:36:39,071
tenente colonnello
dell'aeronautica statunitense

458
00:36:39,155 --> 00:36:41,157
in servizio da circa 25 anni.

459
00:36:42,825 --> 00:36:44,869
Ho combattuto in 250 missioni

460
00:36:45,494 --> 00:36:47,538
e sono laureato alla Weapons School,

461
00:36:48,039 --> 00:36:49,832
la Top Gun dell'aeronautica.

462
00:36:52,627 --> 00:36:55,171
Non ho mai volato contro l'IA.

463
00:36:55,254 --> 00:36:58,549
Non vedo l'ora di scoprire
come me la caverò.

464
00:36:59,634 --> 00:37:03,054
Abbiamo impostato uno scontro a due
a 2.000 metri.

465
00:37:04,388 --> 00:37:05,223
Cominciamo.

466
00:37:13,314 --> 00:37:14,148
Se n'è andato.

467
00:37:14,732 --> 00:37:16,651
È davvero interessante.

468
00:37:20,780 --> 00:37:23,658
- Morto.
- Preso. Vittoria impeccabile.

469
00:37:25,910 --> 00:37:27,453
Ok, secondo round.

470
00:37:35,461 --> 00:37:40,508
L'intelligenza artificiale
manovra il velivolo con tale precisione

471
00:37:41,384 --> 00:37:43,219
che non le sto dietro.

472
00:37:48,474 --> 00:37:49,725
All'incrocio.

473
00:37:50,309 --> 00:37:51,894
Sei morto.

474
00:37:53,145 --> 00:37:53,980
Preso!

475
00:37:54,063 --> 00:37:55,022
Mi ha preso.

476
00:37:58,567 --> 00:38:00,194
L'IA non conosce la paura.

477
00:38:00,736 --> 00:38:03,781
All'IA manca l'elemento emotivo
che ci caratterizza.

478
00:38:04,991 --> 00:38:08,077
Una delle strategie più interessanti
della nostra IA

479
00:38:08,160 --> 00:38:10,121
è l'attacco frontale.

480
00:38:10,621 --> 00:38:14,000
Solitamente un pilota umano
attacca da dietro,

481
00:38:14,083 --> 00:38:16,377
così l'avversario non può seminarlo.

482
00:38:17,044 --> 00:38:20,381
L'attacco frontale
è una sfida a chi cede per primo.

483
00:38:21,424 --> 00:38:25,511
In un attacco frontale
si passa da 1.000 a 500 metri di distanza

484
00:38:25,594 --> 00:38:27,096
in un batter d'occhio.

485
00:38:27,596 --> 00:38:31,183
Il rischio di collisione è enorme,
perciò i piloti lo evitano.

486
00:38:32,852 --> 00:38:35,938
Se non glielo si ordina,
l'IA non ha paura di morire.

487
00:38:37,815 --> 00:38:40,693
Sembra di scontrarsi
con un pilota umano, sì,

488
00:38:40,776 --> 00:38:44,113
ma uno che ha mandato all'aria
ogni precauzione.

489
00:38:45,489 --> 00:38:47,325
Non sopravviverà.

490
00:38:57,168 --> 00:38:58,461
Non ha tempo.

491
00:39:01,964 --> 00:39:02,965
Buonanotte.

492
00:39:04,091 --> 00:39:04,925
Sono morto.

493
00:39:16,729 --> 00:39:18,731
Mi riporta coi piedi per terra sapere

494
00:39:18,814 --> 00:39:21,400
che non sono
la scelta migliore per la missione

495
00:39:21,484 --> 00:39:24,320
e che quella cosa potrebbe sostituirmi.

496
00:39:25,696 --> 00:39:26,906
Visibilità 6.

497
00:39:27,615 --> 00:39:28,824
Compensazione 1.000.

498
00:39:29,450 --> 00:39:32,078
L'IA al comando di un caccia

499
00:39:32,828 --> 00:39:34,830
è inarrestabile, domina la scena.

500
00:39:34,914 --> 00:39:37,249
Le vittorie sono più che schiaccianti,

501
00:39:37,333 --> 00:39:41,545
è talmente potente
che la si vorrebbe subito sui velivoli.

502
00:39:43,672 --> 00:39:47,802
Un'IA che pilota un F-16
è una possibilità reale

503
00:39:47,885 --> 00:39:49,970
e non così remota.

504
00:39:51,305 --> 00:39:52,306
Se si affronta

505
00:39:52,390 --> 00:39:56,769
un pilota IA con una percentuale
di vittoria del 99,99999%,

506
00:39:56,852 --> 00:39:58,646
non si hanno possibilità.

507
00:39:59,605 --> 00:40:02,733
Se un pilota IA è imbattibile,

508
00:40:02,817 --> 00:40:06,695
immaginate cosa può fare
una squadra di 50, 100

509
00:40:07,279 --> 00:40:12,535
o addirittura 1.000 piloti.

510
00:40:13,702 --> 00:40:18,791
Un attacco a sciame viene condotto
da un team di velivoli intelligenti.

511
00:40:19,291 --> 00:40:23,462
Si scambiano informazioni,
decidono cosa fare e risolvono problemi.

512
00:40:25,172 --> 00:40:30,469
Questo tipo di attacco
cambierà le carte in tavola

513
00:40:30,553 --> 00:40:32,638
per il nostro esercito e gli alleati.

514
00:41:42,750 --> 00:41:47,379
L'obiettivo è stato individuato
e i droni lo stanno seguendo.

515
00:42:02,019 --> 00:42:03,604
Ok, ora l'atterraggio.

516
00:42:07,566 --> 00:42:10,402
L'obiettivo principale
della ricerca sugli sciami

517
00:42:11,153 --> 00:42:13,697
è quello di utilizzare molti droni

518
00:42:13,781 --> 00:42:16,617
in un'area difficile
o pericolosa da raggiungere.

519
00:42:16,700 --> 00:42:17,910
UNIVERSITÀ DEL NEBRASKA

520
00:42:21,705 --> 00:42:26,085
Questo progetto
ha il patrocinio dell'Army Research Lab.

521
00:42:26,919 --> 00:42:32,883
Per scoprire cosa c'è in un luogo
difficile da raggiungere o molto vasto,

522
00:42:33,676 --> 00:42:35,886
è prassi inviare più velivoli

523
00:42:35,970 --> 00:42:38,389
per estendere l'area di perlustrazione

524
00:42:38,472 --> 00:42:41,934
e raccogliere informazioni
fondamentali per la missione.

525
00:42:46,689 --> 00:42:48,983
Nella strategia a sciame

526
00:42:49,066 --> 00:42:53,904
diamo ai droni un unico ordine:
rintracciare l'obiettivo.

527
00:42:54,488 --> 00:42:57,283
E i droni lo eseguono autonomamente.

528
00:42:59,493 --> 00:43:04,081
L'IA permette ai robot di muoversi
collettivamente come uno sciame,

529
00:43:04,164 --> 00:43:05,708
in modo decentrato.

530
00:43:10,671 --> 00:43:12,506
Negli sciami naturali

531
00:43:13,299 --> 00:43:18,178
non c'è nessun capo,
nessun animale dice agli altri cosa fare.

532
00:43:20,556 --> 00:43:25,019
Il comportamento
parte da ogni singolo individuo

533
00:43:25,102 --> 00:43:27,104
che segue semplici regole.

534
00:43:27,688 --> 00:43:32,443
Ed è così che si forma
il fenomeno collettivo dello sciame.

535
00:43:33,944 --> 00:43:37,031
Gli sciami in natura sono formidabili

536
00:43:37,114 --> 00:43:39,992
per la grazia dei loro movimenti.

537
00:43:40,576 --> 00:43:44,288
È come se gli animali fossero stati creati
per far parte di un gruppo.

538
00:43:46,790 --> 00:43:53,172
Idealmente, vorremo che lo sciame di droni
si muovesse come uno sciame naturale,

539
00:43:53,672 --> 00:43:56,717
che fosse il gruppo a prendere decisioni.

540
00:43:59,928 --> 00:44:02,765
Altre caratteristiche
a cui ci siamo ispirati

541
00:44:02,848 --> 00:44:06,268
sono l'affidabilità e la resilienza.

542
00:44:07,311 --> 00:44:09,188
Lo sciame non si disperde,

543
00:44:09,271 --> 00:44:13,567
se un individuo non fa ciò che dovrebbe.

544
00:44:15,194 --> 00:44:18,697
Anche se un robot cade o sbaglia

545
00:44:18,781 --> 00:44:20,866
o non porta a termine l'operazione,

546
00:44:21,909 --> 00:44:23,369
lo sciame non si ferma.

547
00:44:25,204 --> 00:44:27,873
Ed è ciò che vorremmo ottenere.

548
00:44:29,333 --> 00:44:33,879
Durante i combattimenti
dobbiamo riconoscere i velivoli nemici

549
00:44:33,962 --> 00:44:37,841
e prima serviva che una persona
controllasse un robot.

550
00:44:38,592 --> 00:44:40,594
Ma con l'aumentare dell'autonomia,

551
00:44:40,678 --> 00:44:43,555
spero che si possa avere
un gran numero di robot

552
00:44:43,639 --> 00:44:46,558
controllati da pochi individui.

553
00:44:47,851 --> 00:44:50,854
Credo che un giorno
potremmo anche arrivare a 1.000,

554
00:44:51,355 --> 00:44:56,443
perché ogni drone agirà autonomamente
e a quel punto non ci saranno limiti.

555
00:44:57,027 --> 00:44:59,071
L'apprendimento va per gradi.

556
00:44:59,154 --> 00:45:03,325
È un po' che testiamo gli sciami
in delle simulazioni

557
00:45:03,409 --> 00:45:06,829
e ora è arrivato il momento
di provarli nel mondo reale.

558
00:45:07,329 --> 00:45:12,042
Partiremo controllando in rete
tre robot contemporaneamente

559
00:45:12,126 --> 00:45:15,129
e daremo loro sempre più capacità.

560
00:45:15,879 --> 00:45:18,549
Testeremo la cosa su sistemi più piccoli

561
00:45:18,632 --> 00:45:22,261
per poi applicare quei concetti
a sistemi più grandi

562
00:45:22,344 --> 00:45:23,679
come i caccia.

563
00:45:24,596 --> 00:45:26,014
Ci chiediamo spesso:

564
00:45:26,098 --> 00:45:31,937
"Come possiamo dare a un plotone
la potenza di un battaglione?

565
00:45:34,982 --> 00:45:39,528
E a un battaglione quella di una brigata?"

566
00:45:39,611 --> 00:45:41,947
Ecco cosa si può fare con gli sciami.

567
00:45:42,614 --> 00:45:45,200
E utilizzando la potenza degli sciami

568
00:45:45,284 --> 00:45:49,455
si crea un nuovo deterrente strategico
per gli attacchi militari.

569
00:45:52,332 --> 00:45:57,004
Credo che l'aspetto che più mi entusiasma
è che la vita di tantissimi giovani

570
00:45:57,087 --> 00:46:00,299
verrà risparmiata,
se riusciamo nell'intento.

571
00:46:01,091 --> 00:46:03,594
Sacrificheremo macchine

572
00:46:04,553 --> 00:46:05,846
e non vite umane.

573
00:46:06,638 --> 00:46:10,893
Alcuni sostengono che le armi autonome
renderanno la guerra più precisa

574
00:46:10,976 --> 00:46:12,311
e più umana,

575
00:46:12,853 --> 00:46:16,231
ma, in realtà,
è difficile prevedere esattamente

576
00:46:16,315 --> 00:46:19,443
come le armi autonome
cambieranno la guerra.

577
00:46:21,320 --> 00:46:23,238
Come l'invenzione della mitragliatrice.

578
00:46:23,322 --> 00:46:25,365
MITRAGLIATRICE R.J. GATLING
9 MAGGIO 1865

579
00:46:25,449 --> 00:46:27,117
L'inventore Richard Gatling,

580
00:46:27,201 --> 00:46:30,954
vedendo i soldati
feriti nella Guerra di secessione,

581
00:46:32,289 --> 00:46:35,292
volle provare
a rendere la guerra più umana.

582
00:46:36,293 --> 00:46:39,797
Voleva ridurre il numero di soldati
morti in guerra

583
00:46:40,422 --> 00:46:42,633
riducendo il numero di soldati sul campo.

584
00:46:44,092 --> 00:46:48,388
E così inventò la mitragliatrice,
un'arma automatica azionata a manovella

585
00:46:48,472 --> 00:46:50,516
che sparava automaticamente.

586
00:46:53,268 --> 00:46:57,981
Aumentò di cento volte
la potenza di fuoco dei soldati.

587
00:47:01,235 --> 00:47:05,239
Spesso, gli sforzi
per rendere la guerra più precisa e umana

588
00:47:06,490 --> 00:47:07,991
hanno l'effetto opposto.

589
00:47:10,160 --> 00:47:13,455
Pensate alle conseguenze
dell'attacco di un drone vagante

590
00:47:13,539 --> 00:47:17,209
in una zona rurale che aizza
la popolazione locale contro gli USA

591
00:47:17,292 --> 00:47:20,712
o il governo locale,
insomma, contro i buoni.

592
00:47:22,589 --> 00:47:25,008
Ora moltiplicatele per 1.000.

593
00:47:26,802 --> 00:47:28,720
La creazione di un'arma

594
00:47:28,804 --> 00:47:34,560
economica, scalabile
e che non richiede il controllo umano

595
00:47:34,643 --> 00:47:37,896
sposta drasticamente
i limiti dei conflitti.

596
00:47:40,107 --> 00:47:44,486
Non dormo la notte se penso a un mondo
in cui la guerra è onnipresente

597
00:47:44,987 --> 00:47:48,657
e noi non pensiamo più
ai costi umani ed economici,

598
00:47:48,740 --> 00:47:51,410
perché le vite
che verranno perse in battaglia…

599
00:47:52,369 --> 00:47:54,288
sono molto distanti da noi.

600
00:47:59,501 --> 00:48:01,420
Non mi do pace.

601
00:48:02,212 --> 00:48:05,924
Volevo solo un esempio
di uso improprio di IA.

602
00:48:06,800 --> 00:48:10,888
Le conseguenze impreviste
di quel semplice esperimento

603
00:48:10,971 --> 00:48:12,848
sono state eccessive.

604
00:48:13,348 --> 00:48:16,226
IA E SVILUPPO FARMACI:
NON FARE PIÙ DANNI CHE BENE

605
00:48:17,352 --> 00:48:22,107
Durante la presentazione
sulle molecole tossiche create dall'IA,

606
00:48:22,608 --> 00:48:24,526
il pubblico è rimasto di stucco.

607
00:48:25,402 --> 00:48:27,613
I PRIMI 5.000 COMPOSTI ERANO SIMILI AL VX

608
00:48:29,406 --> 00:48:33,577
Poi abbiamo dovuto decidere
se pubblicare o meno quelle informazioni.

609
00:48:34,912 --> 00:48:40,125
Da un lato, volevamo mettere in guardia
da queste possibilità, ma dall'altro,

610
00:48:40,208 --> 00:48:44,087
non volevamo dare idee strane alla gente.

611
00:48:46,381 --> 00:48:48,133
Abbiamo deciso di pubblicarle

612
00:48:48,216 --> 00:48:54,139
per provare a stroncare sul nascere
gli usi impropri di questo tipo di IA.

613
00:48:54,222 --> 00:48:56,975
DUPLICE USO DELL'IA PER SCOPRIRE FARMACI

614
00:48:57,559 --> 00:49:00,395
USI IMPROPRI
DELL'IA PER SVILUPPARE FARMACI

615
00:49:00,479 --> 00:49:02,272
PER CREARE NUOVE ARMI CHIMICHE

616
00:49:02,356 --> 00:49:04,775
La reazione del pubblico ci ha scioccati.

617
00:49:07,194 --> 00:49:10,656
Abbiamo un contatore
di quanta gente ha aperto l'articolo.

618
00:49:10,739 --> 00:49:14,451
Solitamente, nel migliore dei casi,
i nostri articoli…

619
00:49:14,534 --> 00:49:19,831
vengono letti da 1.000 persone
nell'arco di uno o più anni.

620
00:49:19,915 --> 00:49:22,084
Questo da 10.000 in una settimana.

621
00:49:22,167 --> 00:49:25,337
Poi 20.000, 30.000, 40.000

622
00:49:25,837 --> 00:49:28,715
fino a 10.000 in un giorno.

623
00:49:30,258 --> 00:49:33,512
Siamo finiti sul The Economist
e sul Financial Times.

624
00:49:34,846 --> 00:49:36,890
40.000 RICETTE PER UN OMICIDIO

625
00:49:36,974 --> 00:49:39,977
Ci ha contattati Radiolab.
Ne avevo sentito parlare!

626
00:49:41,937 --> 00:49:45,899
Poi le reazioni sono sfuggite di mano.

627
00:49:48,819 --> 00:49:49,695
TERRIFICANTE.

628
00:49:49,778 --> 00:49:53,657
Leggendo i tweet, ci siamo chiesti:
"Possono fare di peggio?"

629
00:49:54,324 --> 00:49:55,993
Perché l'hanno fatto?

630
00:49:56,076 --> 00:49:57,411
ARTICOLO INQUIETANTE

631
00:49:57,911 --> 00:50:01,081
QUESTI NERD CI UCCIDERANNO.

632
00:50:01,164 --> 00:50:04,501
Poi abbiamo ricevuto un invito
che non mi sarei mai aspettato.

633
00:50:08,797 --> 00:50:12,926
Alla Casa Bianca avevano discusso molto
del nostro articolo

634
00:50:13,010 --> 00:50:15,387
e volevano parlare con noi urgentemente.

635
00:50:18,849 --> 00:50:23,020
Ovviamente, è un grande onore
poter parlare con gente di quel livello.

636
00:50:23,603 --> 00:50:25,272
Ma poi ci si rende conto

637
00:50:25,355 --> 00:50:28,900
che si tratta della Casa Bianca. Dei capi.

638
00:50:29,693 --> 00:50:33,196
Abbiamo dovuto creare
set di dati open source…

639
00:50:33,280 --> 00:50:37,701
In circa sei ore,
il modello ha generato oltre 40.000…

640
00:50:37,784 --> 00:50:41,038
Ci hanno chiesto
la potenza dei computer usati

641
00:50:41,872 --> 00:50:44,249
e abbiamo detto loro che era normale.

642
00:50:44,332 --> 00:50:48,211
Avevamo letteralmente usato
un iMac di sei anni.

643
00:50:49,546 --> 00:50:51,256
E ci sono rimasti di sasso.

644
00:50:54,968 --> 00:50:59,473
Gli esperti di armi chimiche

645
00:50:59,556 --> 00:51:04,019
e le agenzie governative
non avevano idea di questo potenziale.

646
00:51:06,605 --> 00:51:09,816
Abbiamo ottenuto un ricettario
di armi chimiche

647
00:51:10,650 --> 00:51:15,572
che, se finisse nelle mani sbagliate
di chi ha scopi maligni,

648
00:51:16,573 --> 00:51:18,992
porterebbe a scenari terrificanti.

649
00:51:21,703 --> 00:51:23,205
La gente dovrà ascoltare

650
00:51:23,288 --> 00:51:26,458
e serviranno provvedimenti
per regolamentare la tecnologia

651
00:51:27,250 --> 00:51:30,670
o limitarla
in modo da evitarne usi impropri.

652
00:51:31,880 --> 00:51:35,175
Perché la sua potenziale letalità…

653
00:51:36,176 --> 00:51:37,344
è terrificante.

654
00:51:40,680 --> 00:51:45,977
La questione dell'etica dell'IA
è principalmente affrontata dalla società,

655
00:51:46,561 --> 00:51:50,273
non dagli ingegneri,
dai tecnologi e dai matematici.

656
00:51:52,484 --> 00:51:56,822
Per ogni nuova tecnologia,
ogni innovazione,

657
00:51:56,905 --> 00:52:00,617
alla fine è la società a decidere
come dovremmo usarla.

658
00:52:01,201 --> 00:52:03,578
LA DIFESA ADOTTA PRINCIPI ETICI PER L'IA

659
00:52:03,662 --> 00:52:06,498
Al momento,
il Dipartimento della difesa afferma:

660
00:52:06,581 --> 00:52:12,003
"L'unico agente che può uccidere
sul campo di battaglia è una persona".

661
00:52:12,504 --> 00:52:14,548
Una macchina può uccidere,

662
00:52:15,674 --> 00:52:18,927
ma solo se comandata da un operatore umano

663
00:52:19,636 --> 00:52:21,429
e questo non cambierà mai.

664
00:52:24,808 --> 00:52:28,103
Ci assicurano
che questo tipo di tecnologia è sicuro.

665
00:52:29,729 --> 00:52:33,692
Ma l'esercito degli Stati Uniti
è notoriamente inaffidabile

666
00:52:33,775 --> 00:52:35,610
riguardo alla guerra tra droni.

667
00:52:35,694 --> 00:52:38,071
USA NASCONDONO
ATTACCO AEREO LETALE IN SIRIA

668
00:52:38,155 --> 00:52:41,783
Riguardo all'affidabilità
dell'esercito statunitense con l'IA,

669
00:52:41,867 --> 00:52:44,953
direi che i fatti parlano chiaro.

670
00:52:46,204 --> 00:52:50,125
La politica del Dipartimento della difesa
sull'uso di armi autonome

671
00:52:50,208 --> 00:52:52,919
non vieta alcun tipo di sistema.

672
00:52:53,003 --> 00:52:56,715
Ma anche se i soldati
non volessero queste armi autonome,

673
00:52:56,798 --> 00:53:01,678
potrebbero delegare diverse decisioni
alle macchine

674
00:53:01,761 --> 00:53:03,680
per stare al passo con l'avversario.

675
00:53:04,764 --> 00:53:08,351
Ciò potrebbe spingere i soldati
ad automatizzare decisioni

676
00:53:08,435 --> 00:53:09,978
contro la loro volontà.

677
00:53:12,022 --> 00:53:13,440
Secondo Vladimir Putin,

678
00:53:13,523 --> 00:53:16,693
chi domina il campo dell'IA,
governerà il mondo.

679
00:53:17,736 --> 00:53:23,325
Il presidente Xi ha affermato che l'IA
è in cima alla lista delle tecnologie

680
00:53:23,408 --> 00:53:25,702
in cui la Cina vuole eccellere.

681
00:53:26,786 --> 00:53:29,831
Si tratta di una gara tecnologica.

682
00:53:33,501 --> 00:53:35,670
C'è chi parla di mettere paletti

683
00:53:36,463 --> 00:53:39,424
e credo sia necessario.

684
00:53:40,467 --> 00:53:45,180
Ma siamo nel pieno di una corsa
alla supremazia dell'IA.

685
00:53:47,265 --> 00:53:51,603
E gli avversari,
che siano la Cina, la Russia o l'Iran,

686
00:53:52,187 --> 00:53:56,566
se ne fregheranno della nostra politica
riguardo all'IA.

687
00:54:00,820 --> 00:54:04,324
Si parla molto delle politiche sull'IA,

688
00:54:06,117 --> 00:54:09,287
ma vorrei che i leader si concentrassero

689
00:54:09,371 --> 00:54:11,706
su quanto velocemente si può acquisire.

690
00:54:12,666 --> 00:54:15,210
Che finanziassero
i progetti per costruirla.

691
00:54:18,922 --> 00:54:21,299
MEETING E FIERA ANNUALE

692
00:54:24,177 --> 00:54:26,805
ESERCITO DEGLI STATI UNITI

693
00:54:33,478 --> 00:54:38,400
Siamo alla fiera più importante dell'anno
dell'Associazione dell'esercito americano.

694
00:54:39,609 --> 00:54:44,572
Tutti i rivenditori
di prodotti o tecnologie militari

695
00:54:44,656 --> 00:54:46,616
sono presenti.

696
00:54:47,701 --> 00:54:50,537
Quattro nostri robot
pattugliano la base aerea di Tyndall

697
00:54:50,620 --> 00:54:53,748
ventiquattro ore al giorno,
sette giorni su sette.

698
00:54:55,750 --> 00:55:00,130
Possiamo aggiungerci di tutto,
dalla telecamera ai sensori.

699
00:55:00,213 --> 00:55:05,135
Bracci manipolatori. Lo scopo è completare
la missione che il cliente ha in mente.

700
00:55:06,678 --> 00:55:08,638
E se il nemico usa l'IA?

701
00:55:09,347 --> 00:55:12,976
Un sistema di combattimento
che pensa e reagisce più velocemente

702
00:55:13,059 --> 00:55:16,062
di un essere umano?
Dobbiamo essere pronti.

703
00:55:17,522 --> 00:55:21,443
Addestriamo i nostri sistemi
a raccogliere informazioni sul nemico,

704
00:55:22,027 --> 00:55:26,531
a gestire obiettivi nemici,
ma le persone decidono chi uccidere.

705
00:55:33,288 --> 00:55:34,956
- Salve, Generale.
- Come va?

706
00:55:35,040 --> 00:55:36,416
Bene, signore. Lei?

707
00:55:37,709 --> 00:55:42,630
Nessuno investe più di noi nei piloti IA.
Il nostro si chiama Hivemind.

708
00:55:43,298 --> 00:55:47,135
L'abbiamo installato sul quadrirotore Nova
per pilotarlo negli edifici

709
00:55:47,218 --> 00:55:50,805
ed esplorarli prima delle forze speciali
o della fanteria.

710
00:55:50,889 --> 00:55:52,891
L'abbiamo installato sul V-BAT

711
00:55:52,974 --> 00:55:56,811
e impiegheremo
centinaia di quelle squadre.

712
00:55:56,895 --> 00:56:01,608
Che sia nello Stretto di Formosa
o in Ucraina, fungono da deterrente.

713
00:56:01,691 --> 00:56:03,360
Non vediamo l'ora.

714
00:56:03,943 --> 00:56:06,196
- Ok. Grazie.
- Grazie, Generale.

715
00:56:07,989 --> 00:56:13,370
I piloti IA dovrebbero essere ovunque
entro il 2025 o il 2030.

716
00:56:14,204 --> 00:56:17,582
Tutti gli eserciti del mondo
li impiegheranno a breve.

717
00:56:19,250 --> 00:56:22,962
Come collaborate col responsabile di APR
dell'esercito romeno?

718
00:56:23,046 --> 00:56:25,173
L'alta tecnologia nell'esercito.

719
00:56:25,256 --> 00:56:29,803
Abbiamo speso mezzo miliardo di dollari
per costruire un pilota IA.

720
00:56:29,886 --> 00:56:33,181
Ne spenderemo un altro miliardo
nei prossimi cinque anni.

721
00:56:33,264 --> 00:56:37,769
Perciò negli Stati Uniti stiamo vincendo
tutti i bandi della Difesa.

722
00:56:37,852 --> 00:56:38,853
Non male.

723
00:56:38,937 --> 00:56:42,732
Sono colpito. Avete aggiunto un'arma?

724
00:56:43,650 --> 00:56:45,568
Non ancora.

725
00:56:45,652 --> 00:56:48,321
Non ancora, ma è previsto in futuro.

726
00:56:48,905 --> 00:56:52,534
Per i clienti è un veicolo.
Per noi è un veicolo intelligente

727
00:56:52,617 --> 00:56:54,452
che svolge diversi compiti.

728
00:56:54,536 --> 00:56:55,745
- Grazie.
- Figurati.

729
00:56:55,829 --> 00:56:57,914
Ci sentiamo.

730
00:57:01,668 --> 00:57:04,129
Tra dieci anni

731
00:57:04,212 --> 00:57:10,802
intelligenza artificiale e armi autonome
domineranno l'intero mercato.

732
00:57:14,889 --> 00:57:19,352
Gli eserciti potenziati
con IA e armi autonome

733
00:57:19,436 --> 00:57:22,814
domineranno, schiacceranno

734
00:57:22,897 --> 00:57:25,608
e annienteranno gli avversari
che non le hanno.

735
00:57:26,401 --> 00:57:30,780
Sarà come affrontare dei cavalli
con dei carri armati,

736
00:57:31,739 --> 00:57:34,826
dei soldati armati di spada
con delle mitragliatrici.

737
00:57:34,909 --> 00:57:37,120
Non ci sarà competizione.

738
00:57:38,746 --> 00:57:42,750
L'IA sarà ovunque, verrà usata
a ogni livello della guerra.

739
00:57:43,585 --> 00:57:44,836
A livello tattico,

740
00:57:45,336 --> 00:57:46,629
a livello strategico.

741
00:57:47,130 --> 00:57:50,800
E opererà a velocità
che l'uomo non può nemmeno immaginare ora.

742
00:57:53,094 --> 00:57:57,098
I comandanti
ricevono già troppe informazioni.

743
00:57:57,599 --> 00:58:01,019
Immagini dai satelliti,
dai droni e dai sensori.

744
00:58:02,103 --> 00:58:06,774
L'IA può aiutarli a capire più velocemente
ciò che sta succedendo.

745
00:58:07,650 --> 00:58:09,903
E a prendere le decisioni giuste.

746
00:58:11,237 --> 00:58:14,866
L'IA prenderà in considerazione
tutti i fattori

747
00:58:14,949 --> 00:58:17,702
che determinano
lo svolgimento di una guerra,

748
00:58:18,286 --> 00:58:20,246
escogiterà strategie

749
00:58:22,540 --> 00:58:25,668
e darà consigli per vincerla.

750
00:58:32,217 --> 00:58:34,344
CENTRO DI INNOVAZIONE

751
00:58:36,888 --> 00:58:40,266
Noi della Lockheed Martin,
come la Difesa, nostro cliente,

752
00:58:40,350 --> 00:58:45,104
vediamo l'intelligenza artificiale
come un fattore chiave per il comando.

753
00:58:47,065 --> 00:58:50,151
Si diffonde a una velocità
di mezzo metro al secondo.

754
00:58:50,235 --> 00:58:52,278
Il perimetro è di circa 700 acri.

755
00:58:52,779 --> 00:58:55,782
La nebbia di guerra è vera
quando si parla di difesa

756
00:58:57,158 --> 00:59:00,495
ed è simile a quando bisogna
prendere decisioni

757
00:59:00,578 --> 00:59:03,206
per, ad esempio, spegnere un incendio.

758
00:59:03,289 --> 00:59:06,543
L'incendio di Washburn
è a nord della città di Wawona.

759
00:59:06,626 --> 00:59:09,629
Bisogna decidere
basandosi su dati imperfetti.

760
00:59:10,630 --> 00:59:14,300
Come può l'IA aiutarci
a dissipare la nebbia di guerra?

761
00:59:17,637 --> 00:59:19,681
Gli incendi boschivi sono caotici.

762
00:59:20,181 --> 00:59:21,266
Sono complicati,

763
00:59:22,267 --> 00:59:26,354
quindi vogliamo usare
l'intelligenza artificiale

764
00:59:26,437 --> 00:59:27,855
per prendere decisioni.

765
00:59:31,442 --> 00:59:33,987
Il Cognitive Mission Manager
è un programma

766
00:59:34,070 --> 00:59:37,949
che esegue riprese aeree a infrarossi

767
00:59:38,032 --> 00:59:41,786
e le elabora con gli algoritmi IA

768
00:59:41,869 --> 00:59:45,248
per prevedere dove si sposterà l'incendio.

769
00:59:48,042 --> 00:59:49,794
In futuro,

770
00:59:49,877 --> 00:59:52,922
useremo il Cognitive Mission Manager

771
00:59:53,006 --> 00:59:57,093
per simulare migliaia di scenari diversi,

772
00:59:57,176 --> 01:00:00,722
in cui dovrà consigliare
il modo migliore di usare le risorse

773
01:00:00,805 --> 01:00:04,058
per estinguere l'incendio
nelle sue aree principali.

774
01:00:08,062 --> 01:00:12,400
Ci dirà: "Andare in ricognizione
in questa area con un Firehawk.

775
01:00:13,568 --> 01:00:15,903
Fare abbattere i cespugli

776
01:00:16,946 --> 01:00:19,032
e usare gli idranti

777
01:00:19,657 --> 01:00:23,077
per spegnere l'incendio
nelle zone critiche".

778
01:00:26,289 --> 01:00:31,044
Prenderemo queste decisioni
in modo più veloce ed efficiente.

779
01:00:35,840 --> 01:00:38,468
Semplicemente l'IA permette agli umani

780
01:00:38,551 --> 01:00:42,305
di stare al passo con un ambiente
che cambia costantemente.

781
01:00:43,389 --> 01:00:46,517
E ci sono diversi parallelismi

782
01:00:46,601 --> 01:00:50,355
tra ciò che facciamo al Lockheed Martin
e la difesa militare.

783
01:00:52,231 --> 01:00:55,860
L'esercito non vuole più usare l'IA

784
01:00:55,943 --> 01:01:00,323
solo per individuare e abbattere obiettivi
con armi singole,

785
01:01:00,865 --> 01:01:02,200
ma vuole integrarla

786
01:01:02,283 --> 01:01:05,787
nell'intera architettura decisionale
dell'esercito.

787
01:01:09,457 --> 01:01:12,960
L'esercito ha un grande progetto,
Project Convergence.

788
01:01:14,545 --> 01:01:16,589
La Marina ha Overmatch.

789
01:01:16,673 --> 01:01:19,592
L'Aeronautica ha
Advanced Battle Management System.

790
01:01:21,886 --> 01:01:26,683
Il Dipartimento della difesa vuole capire
come mettere insieme tutti questi pezzi

791
01:01:26,766 --> 01:01:29,268
per agire più velocemente del nemico

792
01:01:30,395 --> 01:01:32,355
e ottenere un vantaggio.

793
01:01:33,481 --> 01:01:37,527
Il responsabile di combattimenti IA
sarà un generale di alto grado

794
01:01:37,610 --> 01:01:39,821
responsabile delle battaglie.

795
01:01:41,155 --> 01:01:44,158
Aiuterà a dare ordini
a più gruppi di militari,

796
01:01:45,118 --> 01:01:49,247
coordinerà l'uso
di tutte le armi dispiegate

797
01:01:49,330 --> 01:01:51,958
e lo farà a una velocità
inarrivabile per le persone.

798
01:01:53,543 --> 01:01:55,294
Negli ultimi 70 anni

799
01:01:55,378 --> 01:01:58,798
abbiamo messo insieme
l'esercito più sofisticato del mondo

800
01:01:58,881 --> 01:02:03,177
e ora dobbiamo decidere
se vogliamo cedere il controllo

801
01:02:03,261 --> 01:02:07,598
di quell'infrastruttura
a un algoritmo, a un software.

802
01:02:10,351 --> 01:02:13,187
E conseguentemente a questa decisione

803
01:02:13,271 --> 01:02:16,774
potremmo dispiegare tutte le nostre armi.

804
01:02:16,858 --> 01:02:19,902
Equivarrebbe non a una,
ma a cento Hiroshima.

805
01:02:25,616 --> 01:02:27,869
Questo è il momento di agire,

806
01:02:27,952 --> 01:02:33,166
perché ben presto non potremo più
arginare i rischi correlati all'IA.

807
01:02:34,041 --> 01:02:36,043
NAZIONI UNITE
27 SETTEMBRE 2021

808
01:02:36,127 --> 01:02:39,338
Questo pomeriggio,
iniziamo con le sfide alla sicurezza

809
01:02:39,422 --> 01:02:43,259
poste dalle nuove tecnologie
nel campo delle armi autonome letali.

810
01:02:43,342 --> 01:02:44,343
PRESIDENTE

811
01:02:44,427 --> 01:02:48,639
Alle Nazioni Unite si discute
della minaccia delle armi autonome letali…

812
01:02:48,723 --> 01:02:50,016
FEDERAZIONE RUSSA

813
01:02:50,099 --> 01:02:51,267
STATI UNITI

814
01:02:51,350 --> 01:02:56,564
…e del nostro divieto di usare l'IA
per trovare e colpire obiettivi umani.

815
01:02:56,647 --> 01:03:00,777
I tecnologi sono tutti d'accordo
e sono stati chiari.

816
01:03:00,860 --> 01:03:04,030
Diciamo no alle armi autonome
usate contro le persone.

817
01:03:05,615 --> 01:03:11,329
Da anni, con il contributo degli Stati,
si discute delle armi autonome letali.

818
01:03:11,412 --> 01:03:13,581
SOLDATI ROBOT: VERSO IL DIVIETO

819
01:03:13,664 --> 01:03:16,793
Si tratta di un senso di sicurezza
condiviso e comune.

820
01:03:17,794 --> 01:03:19,504
Ma, ovviamente, non è facile.

821
01:03:19,587 --> 01:03:23,257
SEGRETARIO GENERALE ONU SPRONA A DECIDERE
SUI 'SOLDATI ROBOT' A GINEVRA

822
01:03:23,341 --> 01:03:27,762
Alcuni Paesi, specie le potenze militari,
vogliono essere all'avanguardia

823
01:03:28,429 --> 01:03:30,056
per superare gli avversari.

824
01:03:30,139 --> 01:03:33,559
RUSSIA ALL'ONU: NON IMPEDITECI
DI COSTRUIRE I SOLDATI ROBOT

825
01:03:33,643 --> 01:03:36,395
Il problema è che,
per agire, serve unanimità.

826
01:03:36,896 --> 01:03:39,065
Ci sarà sempre almeno un Paese contrario

827
01:03:39,148 --> 01:03:42,151
e sia gli Stati Uniti che la Russia
hanno dichiarato

828
01:03:42,235 --> 01:03:45,947
che si oppongono a qualsiasi accordo
che vieti le armi autonome.

829
01:03:47,198 --> 01:03:53,204
Se pensiamo al numero di persone
che lavorano per potenziare l'IA,

830
01:03:54,747 --> 01:03:56,457
è altissimo.

831
01:03:57,750 --> 01:04:02,880
Se pensiamo al numero di persone
che lavorano per renderla sicura,

832
01:04:04,340 --> 01:04:07,510
è bassissimo.

833
01:04:11,764 --> 01:04:13,724
Ma sono anche molto ottimista.

834
01:04:16,060 --> 01:04:19,480
Penso alla Convenzione
sulle armi biologiche

835
01:04:19,564 --> 01:04:22,358
entrata in vigore
nel pieno della Guerra fredda

836
01:04:23,025 --> 01:04:27,655
nonostante le tensioni
tra l'Unione Sovietica e gli Stati Uniti.

837
01:04:29,156 --> 01:04:33,536
Sono riusciti a rendersi conto
che lo sviluppo di armi biologiche

838
01:04:33,619 --> 01:04:36,247
non era né nel loro interesse,

839
01:04:36,330 --> 01:04:38,749
né in quello di tutto il mondo.

840
01:04:41,335 --> 01:04:45,214
Le corse agli armamenti
mettono la velocità prima della sicurezza.

841
01:04:45,715 --> 01:04:48,342
Ma credo sia importantissimo capire che,

842
01:04:48,426 --> 01:04:52,430
a un certo punto,
il costo della fretta è troppo alto.

843
01:04:56,225 --> 01:04:59,270
Non si possono sviluppare
queste cose nel vuoto

844
01:05:00,021 --> 01:05:06,611
e commercializzarle senza pensare
a che risvolti avranno in futuro.

845
01:05:07,862 --> 01:05:10,823
Bisogna evitare un ripetersi
della bomba atomica.

846
01:05:14,577 --> 01:05:17,705
La posta in gioco
nel campo dell'IA è enorme.

847
01:05:18,289 --> 01:05:22,001
Poche persone riescono a capire
che il nostro equilibrio globale

848
01:05:22,084 --> 01:05:28,174
è stato reso possibile dal fatto
che siamo la maggiore potenza militare

849
01:05:28,257 --> 01:05:31,135
degli ultimi 75 anni.

850
01:05:32,887 --> 01:05:35,681
Perciò gli Stati Uniti e i suoi alleati

851
01:05:36,557 --> 01:05:38,684
devono avere un'IA migliore degli altri.

852
01:05:43,314 --> 01:05:45,441
In guerra non si arriva secondi.

853
01:05:45,524 --> 01:05:49,111
La Cina ha un piano per diventare
leader mondiale IA entro il 2030.

854
01:05:49,195 --> 01:05:51,656
C'è chi dice che gli USA
stiano perdendo la gara…

855
01:05:52,740 --> 01:05:56,160
Bisogna accelerare
l'implementazione dell'IA

856
01:05:56,243 --> 01:05:59,246
per mantenere il vantaggio militare.

857
01:06:02,875 --> 01:06:05,461
Questa tecnologia avanza velocemente.

858
01:06:05,544 --> 01:06:08,673
Quello che non è chiaro
è quanto oltre ci spingeremo.

859
01:06:09,507 --> 01:06:12,760
Controlliamo noi la tecnologia
o viceversa?

860
01:06:14,136 --> 01:06:16,973
Non si può ricominciare da capo.

861
01:06:17,807 --> 01:06:20,977
Il genio esce dalla lampada
una volta sola.

862
01:06:22,019 --> 01:06:25,189
Ed è difficilissimo rimettercelo dentro.

863
01:06:28,609 --> 01:06:31,737
Bisogna agire ora,
prima che sia troppo tardi.

864
01:06:33,114 --> 01:06:34,657
Se non lo è già.

865
01:08:48,124 --> 01:08:53,254
Sottotitoli: Chiara Belluzzi



