1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
Я вважаю, що ШІ вражає.

4
00:00:28,361 --> 00:00:31,489
Гаразд, утворюємо коло. Гарна побудова.

5
00:00:33,116 --> 00:00:36,703
ШІ може викорінити бідність,

6
00:00:36,786 --> 00:00:38,705
забезпечити нас новими ліками

7
00:00:39,330 --> 00:00:41,583
та навіть зробити наш світ мирнішим.

8
00:00:46,087 --> 00:00:46,921
Гарна робота.

9
00:00:49,883 --> 00:00:53,428
Але на цьому шляху є так багато ризиків.

10
00:01:04,773 --> 00:01:09,611
Завдяки ШІ ми створюємо
нелюдський інтелект,

11
00:01:09,694 --> 00:01:11,863
який дуже непередбачуваний.

12
00:01:14,407 --> 00:01:16,451
У той час, коли він сильнішає,

13
00:01:16,534 --> 00:01:19,746
де проведемо червоні лінії для ШІ —

14
00:01:19,829 --> 00:01:22,665
яким чином хочемо
його використовувати чи ні?

15
00:01:25,001 --> 00:01:28,505
У самому епіцентрі цієї розмови —

16
00:01:28,588 --> 00:01:31,049
зона військового застосування.

17
00:01:34,010 --> 00:01:38,890
Поле битви перетворилося на область
програмного й апаратного забезпечення.

18
00:01:41,059 --> 00:01:42,936
Ціль захоплено…

19
00:01:43,019 --> 00:01:48,399
У військових справжня «гонка розробки ШІ»
із супротивниками — хто швидше.

20
00:01:49,526 --> 00:01:50,360
Мені кінець.

21
00:01:53,780 --> 00:01:58,326
Ми швидко рухаємося до світу,
де не лише військові,

22
00:01:58,409 --> 00:02:02,997
але й недержавні суб'єкти,
приватні підприємства

23
00:02:03,081 --> 00:02:06,042
чи навіть місцеві відділки поліції

24
00:02:06,543 --> 00:02:10,046
зможуть застосувати цю зброю,
яка може вбивати самостійно.

25
00:02:12,006 --> 00:02:17,303
Чи поступимося ми рішенням позбавити життя
на користь алгоритмів, комп'ютерного ПЗ?

26
00:02:18,638 --> 00:02:21,516
Це одне з найактуальніших питань
нашого часу.

27
00:02:23,935 --> 00:02:26,354
І якщо не використовувати ШІ розумно,

28
00:02:26,437 --> 00:02:30,275
він створює серйозний ризик
для кожної людини на планеті.

29
00:02:41,828 --> 00:02:44,914
НЕПІЗНАНЕ:

30
00:02:46,833 --> 00:02:50,086
РОБОТИ-ВБИВЦІ

31
00:03:28,291 --> 00:03:30,168
Чудова робота, хлопці.

32
00:03:59,948 --> 00:04:02,200
Значно ширший кут об'єктива, ніж раніше.

33
00:04:02,283 --> 00:04:03,117
Справді?

34
00:04:03,201 --> 00:04:04,786
Видно значно більше даних.

35
00:04:05,286 --> 00:04:06,287
Дуже круто.

36
00:04:07,538 --> 00:04:11,167
У Shield AI ми створюємо пілота ШІ,

37
00:04:11,251 --> 00:04:14,879
з підтримкою технології
автономного керування ШІ

38
00:04:14,963 --> 00:04:16,631
для літальних апаратів.

39
00:04:19,300 --> 00:04:21,719
Коли ми говоримо про пілота ШІ,

40
00:04:21,803 --> 00:04:25,139
маємо на увазі
надання літакам вищого ступеня автономії.

41
00:04:25,223 --> 00:04:27,850
Вони розв'язуватимуть проблеми самостійно.

42
00:04:29,602 --> 00:04:32,355
«Нова» — автономний квадрокоптер,

43
00:04:32,438 --> 00:04:35,942
що досліджує будівлі
та підземні споруди, ідучи попереду

44
00:04:36,859 --> 00:04:38,611
штурмових підрозділів,

45
00:04:38,695 --> 00:04:41,322
щоб бути очима та вухами розвідників.

46
00:04:41,906 --> 00:04:45,618
Ми помітили цілу купу покращень,
відколи бачили його востаннє.

47
00:04:45,702 --> 00:04:47,870
Працюємо над покращенням розвідки.

48
00:04:47,954 --> 00:04:50,248
А саме над «ходінням» по поверхах.

49
00:04:50,331 --> 00:04:53,584
Облетить усі кімнати,
перш ніж перейти на другий поверх.

50
00:04:54,294 --> 00:04:56,796
-Чудово.
-Ми нещодавно внесли деякі зміни…

51
00:04:56,879 --> 00:04:58,548
Багато людей питають мене,

52
00:04:58,631 --> 00:05:02,468
чому штучний інтелект
має величезний потенціал.

53
00:05:02,552 --> 00:05:06,973
І я згадав про місії, які я виконував.

54
00:05:09,142 --> 00:05:10,935
Провів сім років на флоті.

55
00:05:11,561 --> 00:05:15,273
Я колишній «морський котик».
Двічі відряджався до Афганістану,

56
00:05:15,356 --> 00:05:17,191
один раз у театр Тихого океану.

57
00:05:18,026 --> 00:05:22,947
У певні дні доводилося
зачищати по 150 різних споруд чи будівель.

58
00:05:30,997 --> 00:05:34,250
Ближній бій є однією
з основних можливостей.

59
00:05:35,293 --> 00:05:39,172
Ведення вогню на дуже близьких відстанях
усередині будівель.

60
00:05:41,466 --> 00:05:42,967
У тебе стріляють.

61
00:05:43,468 --> 00:05:46,471
У будівлі можуть бути
саморобні вибухові пристрої.

62
00:05:49,015 --> 00:05:55,229
Це найнебезпечніше, що може бути
для бійців сил спеціальних операцій

63
00:05:55,313 --> 00:05:58,358
чи піхоти в зоні бойових дій.

64
00:05:58,441 --> 00:05:59,275
Без винятків.

65
00:06:12,497 --> 00:06:16,334
До кінця життя я буду вдячний
за час служби на флоті.

66
00:06:17,168 --> 00:06:22,423
У мене ціла колекція моментів і спогадів,
які викликають емоції,

67
00:06:22,507 --> 00:06:24,592
коли я про них згадую.

68
00:06:28,346 --> 00:06:32,725
Вислів «за свободу треба платити» —
став кліше, та я вірю в це на всі сто.

69
00:06:33,559 --> 00:06:37,105
Я відчув на власному досвіді —
свобода вимагає пожертви.

70
00:06:38,022 --> 00:06:38,856
Вибачте.

71
00:06:41,067 --> 00:06:44,570
Коли з твоїми побратимами
трапляється щось погане:

72
00:06:44,654 --> 00:06:46,614
поранення чи смерть —

73
00:06:47,490 --> 00:06:49,700
це трагедія.

74
00:06:49,784 --> 00:06:52,912
Знаєш, у тій праці, що виконуємо зараз,

75
00:06:52,995 --> 00:06:58,835
мене мотивує можливість зменшити в рази

76
00:06:58,918 --> 00:07:00,336
шанси на повторення.

77
00:07:07,176 --> 00:07:08,886
Наприкінці 2000-х

78
00:07:08,970 --> 00:07:11,556
у Міністерстві оборони
сталося пробудження,

79
00:07:11,639 --> 00:07:15,351
яке можна було б назвати
випадковою робототехнічною революцією.

80
00:07:15,893 --> 00:07:19,564
Ми розгорнули тисячі повітряних
і наземних роботів в Іраку та Афганістані.

81
00:07:21,482 --> 00:07:26,404
Коли мені запропонували в адміністрації
Обами стати заступником міністра оборони,

82
00:07:26,904 --> 00:07:31,117
спосіб ведення війни точно змінювався.

83
00:07:32,452 --> 00:07:36,330
Роботів використовували там,
де раніше працювали люди.

84
00:07:37,874 --> 00:07:40,376
Перші робокомплекси
керувалися дистанційно.

85
00:07:40,460 --> 00:07:45,173
Людина кермує ними,
наче машиною на дистанційному керуванні.

86
00:07:46,632 --> 00:07:51,512
Спочатку їх використовували
для пошуку саморобних вибухових пристроїв,

87
00:07:52,013 --> 00:07:54,849
і якщо бомба підривалася, робот вибухав.

88
00:07:57,393 --> 00:08:00,396
Мовляв: «Це облом.
Гаразд, тягни наступного робота».

89
00:08:02,273 --> 00:08:04,484
В Афганістані був дрон «Хижак»,

90
00:08:05,276 --> 00:08:09,739
і він став надзвичайно корисним
інструментом нанесення авіаударів.

91
00:08:13,117 --> 00:08:16,829
З часом військові планувальники
почали роздумувати:

92
00:08:16,913 --> 00:08:20,791
«Для чого ще можна використовувати
роботів? І в якому напрямку?»

93
00:08:20,875 --> 00:08:24,170
Найпоширенішим став тренд
до більшої автономії.

94
00:08:26,506 --> 00:08:30,635
Автономна зброя —
це зброя, яка приймає рішення самостійно,

95
00:08:30,718 --> 00:08:33,304
майже без втручання людини.

96
00:08:33,387 --> 00:08:37,558
Тож вона має незалежну здатність
та самостійне керування.

97
00:08:38,434 --> 00:08:41,687
Чи зможе вбити,
залежить від того, озброєна вона чи ні.

98
00:08:43,314 --> 00:08:47,026
Коли вся система стає більш автономною,

99
00:08:47,109 --> 00:08:49,779
стрілка годинника починає рухатися швидше.

100
00:08:51,989 --> 00:08:56,869
І коли ви реагуєте швидше,
ніж ваші супротивники, —

101
00:08:57,453 --> 00:09:01,165
це надзвичайно велика перевага в бою.

102
00:09:03,960 --> 00:09:06,254
Приклад зосередження на автономії —

103
00:09:07,255 --> 00:09:09,966
надстійкі розвідувальні системи.

104
00:09:12,051 --> 00:09:15,304
Систем, які зчитують
і реагують залежно від оточення,

105
00:09:15,805 --> 00:09:19,642
і приймають рішення,
як маневрувати в такому середовищі.

106
00:09:24,981 --> 00:09:29,151
Об'єкт, де ми зараз працюємо,
початково побудували як кіностудію,

107
00:09:29,235 --> 00:09:30,611
яку перетворили

108
00:09:30,695 --> 00:09:34,156
на реалістичне
військове середовище для навчань.

109
00:09:39,495 --> 00:09:43,291
Ми тут, щоб оцінити наш пілот ШІ.

110
00:09:44,625 --> 00:09:49,297
Місія шукати загрози.
Йдеться про здійснення зачистки.

111
00:09:49,380 --> 00:09:52,800
Він може вирішувати,
як розв'язати цю проблему.

112
00:09:55,428 --> 00:09:59,390
Ми називаємо це «фатальною воронкою».
Ти маєш пройти крізь двері.

113
00:10:01,726 --> 00:10:03,311
Саме там ми найвразливіші.

114
00:10:03,811 --> 00:10:05,146
Ця краща.

115
00:10:07,106 --> 00:10:10,151
«Нова» дає нам знати,
чи за дверима стоїть стрілець,

116
00:10:10,818 --> 00:10:12,653
чи за ними ховається родина?

117
00:10:15,114 --> 00:10:18,451
Це дозволить приймати кращі рішення
і запобігати втратам.

118
00:10:57,114 --> 00:10:59,367
Ми використовуємо датчики бачення,

119
00:10:59,450 --> 00:11:03,162
щоб зрозуміти, як виглядає середовище.

120
00:11:04,997 --> 00:11:06,415
Це багатоповерхівка.

121
00:11:07,333 --> 00:11:08,334
Ось наш план.

122
00:11:08,417 --> 00:11:11,671
Поки я досліджував, ось що і де я бачив.

123
00:11:19,929 --> 00:11:22,098
Детектор людини. Це вражає.

124
00:11:23,891 --> 00:11:27,061
Інший із датчиків на борту «Нова» —
тепловий сканер.

125
00:11:27,561 --> 00:11:30,690
Якщо фіксує 37 градусів,
то це, ймовірно, людина.

126
00:11:32,358 --> 00:11:35,444
Люди вважаються загрозою,
доки не вирішено інакше.

127
00:11:38,906 --> 00:11:43,244
Йдеться про усунення туману війни,
щоб приймати кращі рішення.

128
00:11:44,704 --> 00:11:46,539
І коли ми дивимося в майбутнє,

129
00:11:47,039 --> 00:11:50,793
ми збираємося створювати
команди автономних літальних апаратів.

130
00:11:53,754 --> 00:11:55,631
Апарати з автокеруванням,

131
00:11:55,715 --> 00:11:57,466
що отримали людську команду:

132
00:11:57,550 --> 00:12:00,386
«Долетіти з пункту А в пункт Б».

133
00:12:02,972 --> 00:12:06,475
Наші системи просять
не долетіти з точки А в точку Б,

134
00:12:06,559 --> 00:12:08,477
а досягти мети.

135
00:12:10,312 --> 00:12:13,190
Більше схоже на: «Мені потрібне молоко».

136
00:12:13,274 --> 00:12:17,486
А тоді робот мав би вирішити,
до якого магазину йти,

137
00:12:17,570 --> 00:12:20,239
міг би знайти молоко
і привезти його назад.

138
00:12:20,740 --> 00:12:22,074
Ба більше, можливо,

139
00:12:22,158 --> 00:12:27,037
доречніше описати це так:
«І завжди тримай запас у холодильнику».

140
00:12:27,538 --> 00:12:32,168
Отже, це рівень інтелекту, який розуміє:
що нам потрібно, і як ми це робимо.

141
00:12:32,251 --> 00:12:37,381
І якщо є виклик, проблема чи питання —
здатен зрозуміти, як їх вирішити.

142
00:12:40,801 --> 00:12:45,431
Коли я вирішив піти з флоту, я подумав:

143
00:12:45,514 --> 00:12:47,558
«Гаразд. Що далі?»

144
00:12:49,143 --> 00:12:52,021
Я виріс в Інтернеті,
я бачив, чим він став.

145
00:12:53,189 --> 00:12:55,608
Частина висновку, якого я дійшов:

146
00:12:56,108 --> 00:12:58,861
Штучний інтелект у 2015-му —

147
00:12:58,944 --> 00:13:02,907
те саме, що Інтернет у 1991-му.

148
00:13:04,033 --> 00:13:06,285
ШІ був готовий «злетіти»

149
00:13:06,368 --> 00:13:09,747
і стати найпотужнішою технологією у світі.

150
00:13:11,791 --> 00:13:16,212
Працюючи з ним щодня, я бачу прогрес.

151
00:13:19,048 --> 00:13:22,051
Але для багатьох людей згадка про «ШІ»

152
00:13:22,551 --> 00:13:25,221
скеровує їхні думки одразу до Голлівуду.

153
00:13:28,057 --> 00:13:29,975
Пограємо в гру?

154
00:13:30,059 --> 00:13:35,314
Як щодо Глобальної термоядерної війни?

155
00:13:35,898 --> 00:13:36,816
Добре.

156
00:13:38,275 --> 00:13:40,861
Коли люди думають про штучний інтелект,

157
00:13:40,945 --> 00:13:44,824
їм спадає на думку фільм
«Термінатор». Або — «Я робот».

158
00:13:45,574 --> 00:13:46,700
Деактивувати.

159
00:13:46,784 --> 00:13:48,160
Хто я?

160
00:13:48,244 --> 00:13:49,620
Або «Матриця».

161
00:13:51,080 --> 00:13:53,749
Судячи з науково-фантастичних фільмів,

162
00:13:53,833 --> 00:13:57,878
як ти знаєш, що я людина,
а не комп'ютерний штучний інтелект?

163
00:13:58,379 --> 00:14:02,174
Репліканти, як будь-які машини, —
це або користь, або небезпека.

164
00:14:02,675 --> 00:14:06,095
Але є багато примітивних ШІ,

165
00:14:06,178 --> 00:14:08,097
які все ще змінять наше життя

166
00:14:08,180 --> 00:14:11,851
задовго до початку епохи роботів,
що думають і говорять.

167
00:14:12,643 --> 00:14:15,771
Роботи вже тут. Роботи приймають рішення.

168
00:14:15,855 --> 00:14:18,816
Революція роботів розпочалася,

169
00:14:18,899 --> 00:14:22,319
просто це не схоже на те, що всі уявляли.

170
00:14:23,237 --> 00:14:26,740
Термінатор — інфільтратор.
Частково людина, частково машина.

171
00:14:27,950 --> 00:14:31,370
Ми говоримо не про робота-вбивцю
в стилі Термінатора.

172
00:14:31,871 --> 00:14:35,958
Ми говоримо про ШІ,
який може виконувати людські завдання.

173
00:14:36,041 --> 00:14:39,879
Але питання в тому, чи надійні ці системи.

174
00:14:40,462 --> 00:14:45,426
Нові подробиці учорашньої
смертельної аварії позашляховика «Убер».

175
00:14:45,509 --> 00:14:48,762
Компанія створила чат-бот
на основі штучного інтелекту.

176
00:14:48,846 --> 00:14:51,181
«Вона» прийняла расистський тон.

177
00:14:51,265 --> 00:14:55,394
Двадцять шість законодавців штату
помилково назвали злочинцями.

178
00:14:57,438 --> 00:15:02,026
Питання в тому, чи зможуть вони
впоратися зі складністю реального світу.

179
00:15:03,193 --> 00:15:06,655
КЕМБРІДЖ
МАССАЧУСЕТС

180
00:15:22,212 --> 00:15:24,006
Фізичний світ досить складний.

181
00:15:25,174 --> 00:15:27,426
У ньому є багато невідомого,

182
00:15:27,968 --> 00:15:30,763
що значно ускладнює навчання систем ШІ.

183
00:15:33,098 --> 00:15:36,977
Саме тут почали з'являтися
системи машинного навчання.

184
00:15:38,520 --> 00:15:41,440
Машинне навчання — це великий прогрес,

185
00:15:42,024 --> 00:15:45,611
бо це означає,
що нам не треба вчити комп'ютери всього.

186
00:15:47,905 --> 00:15:52,409
Ви даєте комп'ютеру
мільйони частин інформації,

187
00:15:52,493 --> 00:15:54,453
і машина починає вчитися.

188
00:15:55,245 --> 00:15:57,289
Це можна застосувати до всього.

189
00:16:00,250 --> 00:16:02,962
Наш проєкт «Робопес» намагається показати,

190
00:16:03,045 --> 00:16:09,009
що наш пес може ходити по різних теренах
із різноманітним рельєфом.

191
00:16:10,052 --> 00:16:14,098
Аби навчитися ходити,
людям знадобилися мільярди років еволюції,

192
00:16:14,932 --> 00:16:20,688
але пристосування до різного рельєфу
вимагає багато розумових ресурсів.

193
00:16:21,939 --> 00:16:24,316
Постає питання до роботизованих систем,

194
00:16:24,400 --> 00:16:27,069
чи адаптуються вони, як тварини й люди?

195
00:16:35,953 --> 00:16:40,582
Завдяки машинному навчанню
ми збираємо безліч даних для симуляції.

196
00:16:42,668 --> 00:16:45,838
Симуляція —
це цифровий близнюк реальності.

197
00:16:46,588 --> 00:16:52,052
Ми можемо бачити багато прикладів
цієї реальності на різних комп'ютерах.

198
00:16:53,178 --> 00:16:56,974
Вона відтворює тисячі дій у симуляції.

199
00:16:58,892 --> 00:17:02,229
Земля, з якою вони стикаються,
має різну слизькість

200
00:17:02,312 --> 00:17:03,856
і різну м'якість.

201
00:17:04,898 --> 00:17:08,318
Ми беремо весь досвід цих тисяч роботів

202
00:17:08,402 --> 00:17:13,282
із симуляції і завантажуємо їх
у справжню роботизовану систему.

203
00:17:15,492 --> 00:17:20,039
Сьогодні ми перевіримо,
чи зможе робот адаптуватися до нових умов.

204
00:17:53,322 --> 00:17:55,491
Коли робот долав пінополіуретан,

205
00:17:55,574 --> 00:17:58,577
його ноги тупали по поверхні.

206
00:17:59,369 --> 00:18:02,206
І навпаки, на диференційованій поверхні,

207
00:18:03,248 --> 00:18:06,460
щоб не ковзати,
він намагався відрегулювати рух.

208
00:18:08,670 --> 00:18:10,672
Тоді саме раптом і розумієш:

209
00:18:10,756 --> 00:18:14,051
«Ось, у чому полягає машинне навчання».

210
00:18:41,161 --> 00:18:46,166
Уважаємо, що Робопес може бути корисним
у ліквідації наслідків стихійних лих,

211
00:18:46,250 --> 00:18:49,670
коли необхідно маневрувати
поміж різними типами рельєфу.

212
00:18:52,631 --> 00:18:57,427
Або доручити цим собакам
спостереження в суворих умовах.

213
00:19:15,696 --> 00:19:19,575
Але більшість технологій
стикаються з проблемою,

214
00:19:19,658 --> 00:19:22,369
що приносять користь, але й шкодять.

215
00:19:24,079 --> 00:19:27,875
Завдяки ядерним технологіям
можна виробляти електроенергію,

216
00:19:30,419 --> 00:19:33,797
але також, що погано,
створювати атомні бомби.

217
00:19:35,090 --> 00:19:38,468
Це так звана
«проблема подвійного призначення».

218
00:19:39,052 --> 00:19:40,929
Вогонь — подвійно призначення.

219
00:19:41,722 --> 00:19:44,308
Людський інтелект — подвійне призначення.

220
00:19:44,391 --> 00:19:48,645
Немає сенсу казати,
що ШІ також має подвійне призначення.

221
00:19:49,354 --> 00:19:53,984
Дуже важливо думати про ШІ у контексті,

222
00:19:54,693 --> 00:19:59,114
адже чудово мати
пошуково-рятувального робота,

223
00:19:59,198 --> 00:20:02,284
який допоможе знайти когось
після сходження лавини,

224
00:20:02,868 --> 00:20:05,871
але того ж робота можна озброїти.

225
00:20:15,088 --> 00:20:21,094
Коли бачиш,
як компанії озброюють робототехніку,

226
00:20:21,178 --> 00:20:22,930
частина тебе божеволіє.

227
00:20:23,931 --> 00:20:28,435
Тоді ми усвідомлюємо:
коли використовуємо наші технології,

228
00:20:28,518 --> 00:20:30,103
це саме те, що станеться.

229
00:20:31,021 --> 00:20:34,441
Це справжня трансформаційна технологія.

230
00:20:36,235 --> 00:20:38,028
Це системи озброєння,

231
00:20:38,111 --> 00:20:43,617
які можуть кардинально
змінити нашу безпеку.

232
00:20:46,161 --> 00:20:51,500
Наразі ми не впевнені,
що машини зможуть відрізнити

233
00:20:51,583 --> 00:20:54,962
цивільних осіб від учасників бойових дій.

234
00:21:01,802 --> 00:21:05,597
На початку війни в Афганістані
я був снайпером загону рейнджерів,

235
00:21:05,681 --> 00:21:08,016
шукав бойовиків, які перетинали кордон.

236
00:21:09,685 --> 00:21:12,521
І вони послали дівчинку
розвідати нашу позицію.

237
00:21:13,939 --> 00:21:17,067
Та в нас не з'явилося ідеї
застрелити цю дівчинку.

238
00:21:19,695 --> 00:21:22,864
За законами війни це було б законно.

239
00:21:24,950 --> 00:21:27,369
Вони не встановлюють вік ворожих воїнів.

240
00:21:29,079 --> 00:21:33,417
Якби ви створили робота,
який би ідеально відповідав законам війни,

241
00:21:33,500 --> 00:21:35,252
він би застрелив дівчинку.

242
00:21:36,420 --> 00:21:41,091
Як робот розрізнить,
що законне, а що правильне?

243
00:21:43,385 --> 00:21:46,054
Коли йдеться про безпілотну війну,

244
00:21:46,138 --> 00:21:49,933
вона зменшує ризики
для життя американських солдатів

245
00:21:50,017 --> 00:21:51,601
та береже їхню психіку,

246
00:21:52,602 --> 00:21:57,149
але завдає більшої шкоди
цивільному населенню Афганістану,

247
00:21:57,232 --> 00:21:58,775
Іраку та Сомалі.

248
00:22:09,619 --> 00:22:14,416
Я б звернувся до тих,
хто підтримує застосування ШІ у дронах:

249
00:22:15,375 --> 00:22:18,211
«Що, якби по інший бік
опинилося ваше поселення?»

250
00:22:23,550 --> 00:22:25,594
ШІ — це двосічний меч.

251
00:22:26,595 --> 00:22:30,724
Його можна використати на благо,
зазвичай ми так і робимо,

252
00:22:31,558 --> 00:22:33,477
чи змінити положення перемикача,

253
00:22:34,561 --> 00:22:38,023
і тоді технологія набуває
вбивчого потенціалу.

254
00:22:47,032 --> 00:22:48,533
Я клінічний фармаколог.

255
00:22:49,618 --> 00:22:50,994
У мене є команда людей,

256
00:22:51,078 --> 00:22:54,247
які використовують
штучний інтелект для пошуку ліків

257
00:22:54,331 --> 00:22:57,751
від хвороб,
які не привертають жодної уваги.

258
00:22:59,711 --> 00:23:04,132
Таким чином відкривали нові препарати —
брали вже наявну молекулу

259
00:23:04,216 --> 00:23:06,885
і коригували її,
щоб отримати інший препарат.

260
00:23:08,261 --> 00:23:13,350
А тепер ми розробили ШІ,
який може генерувати нам мільйони ідей,

261
00:23:13,892 --> 00:23:15,227
мільйони молекул,

262
00:23:16,186 --> 00:23:19,231
і це відкриває стільки можливостей

263
00:23:19,314 --> 00:23:23,151
у лікуванні раніше невиліковних хвороб.

264
00:23:25,153 --> 00:23:28,448
Але є й темна сторона,
на яку я б ніколи не думав,

265
00:23:28,532 --> 00:23:29,741
що колись перейду.

266
00:23:33,161 --> 00:23:35,872
Усе почалося, коли мене запросила

267
00:23:35,956 --> 00:23:40,043
організація зі Швейцарії
під назвою «Шпіц Лабораторі»,

268
00:23:40,544 --> 00:23:44,423
для виступу з презентацією
про потенційне зловживання ШІ.

269
00:23:48,343 --> 00:23:51,221
Шон щойно надіслав мені листа з ідеями,

270
00:23:51,304 --> 00:23:55,308
як саме можна зловжити
нашим штучним інтелектом.

271
00:23:56,059 --> 00:24:00,355
І замість запиту до нашої моделі
щодо створення лікарських молекул,

272
00:24:00,439 --> 00:24:02,274
якими можна лікувати хвороби,

273
00:24:02,774 --> 00:24:06,403
подивимося, чи зможемо
створити найбільш токсичні молекули.

274
00:24:10,198 --> 00:24:15,203
Я хотів перевірити, чи можна використати
ШІ для створення смертоносних молекул?

275
00:24:17,414 --> 00:24:20,083
Якщо чесно,
ми думали, що ідея провалиться,

276
00:24:20,167 --> 00:24:24,504
адже ми тільки й робили,
що з нуля — одиницю.

277
00:24:26,715 --> 00:24:30,385
Інверсія, замість того,
щоб позбутися токсичності,

278
00:24:30,469 --> 00:24:32,220
тепер ми її шукаємо.

279
00:24:32,721 --> 00:24:33,555
І все.

280
00:24:37,517 --> 00:24:40,729
Поки я був удома, комп'ютер працював.

281
00:24:41,521 --> 00:24:44,816
Тобто він продовжував
генерувати тисячі молекул,

282
00:24:45,650 --> 00:24:49,529
а від нас очікувалося
хіба що натиснути на «старт».

283
00:24:54,493 --> 00:24:58,330
Наступного ранку
на моєму комп'ютері з'явився файл,

284
00:24:59,080 --> 00:25:03,376
що містив близько 40 000 молекул,

285
00:25:03,460 --> 00:25:05,253
які потенційно були

286
00:25:05,337 --> 00:25:08,882
найтоксичнішими серед відомих людству.

287
00:25:10,217 --> 00:25:12,761
Волосся на моїй шиї стало дибки.

288
00:25:13,386 --> 00:25:14,554
Я був шокований.

289
00:25:15,388 --> 00:25:19,017
Комп'ютер згенерував десятки тисяч ідей

290
00:25:19,100 --> 00:25:20,685
нової хімічної зброї.

291
00:25:21,645 --> 00:25:26,274
Очевидно, у нашому наборі даних
є молекули, що схожі на VX, є аналогами VX

292
00:25:26,775 --> 00:25:27,609
або ж і є VX.

293
00:25:28,360 --> 00:25:31,363
VX — найпотужніша хімічна зброя у світі.

294
00:25:31,863 --> 00:25:33,573
За новими даними поліції

295
00:25:33,657 --> 00:25:37,786
нападниці, які скоїли в аеропорту
замах на вбивство Кім Чен Нама,

296
00:25:37,869 --> 00:25:41,248
застосували смертельний
нервово-паралітичний газ — VX.

297
00:25:41,748 --> 00:25:44,417
Він може спричинити смерть через асфіксію.

298
00:25:45,043 --> 00:25:47,629
Це дуже потужна молекула,

299
00:25:47,712 --> 00:25:52,092
і більшість з цих молекул
були ще смертельніші за VX.

300
00:25:53,301 --> 00:25:56,972
Багато з них, наскільки ми знаємо,
були взагалі невідомими.

301
00:25:57,472 --> 00:26:02,310
І коли ми з Шоном зрозуміли це,
то спитали себе: «Що ж ми накоїли?»

302
00:26:04,771 --> 00:26:09,192
Я швидко зрозумів,
що ми відкрили скриньку Пандори,

303
00:26:09,901 --> 00:26:13,280
я сказав: «Годі. Більше нічого не роби.
Ми закінчили.

304
00:26:13,905 --> 00:26:17,158
Лише зроби мені
необхідні слайди для презентації».

305
00:26:19,202 --> 00:26:23,873
Коли ми проводили цей експеримент,
я думав: «Що найгірше може статися?»

306
00:26:26,251 --> 00:26:30,255
Але тепер я кажу:
«Ми були наївними. Ми були дуже наївними».

307
00:26:33,466 --> 00:26:36,928
Найбільше лякає те,
що будь-хто може це повторити за нами.

308
00:26:38,930 --> 00:26:40,765
Лише натиснути на перемикач.

309
00:26:42,934 --> 00:26:46,187
Як нам контролювати цю технологію,

310
00:26:46,271 --> 00:26:50,942
перш ніж вона стане потенційно руйнівною?

311
00:26:55,780 --> 00:27:00,285
У центрі дискусій про штучний інтелект

312
00:27:00,368 --> 00:27:03,538
і те, як ми використовуємо
його в суспільстві, —

313
00:27:04,289 --> 00:27:08,835
перегони між силою,
якою ми наділяємо технології,

314
00:27:08,918 --> 00:27:11,379
і мудрістю, з якою маємо керувати ними.

315
00:27:13,340 --> 00:27:16,926
Існують очевидні моральні
та етичні наслідки —

316
00:27:17,010 --> 00:27:20,138
це як наділити наші смартфони правом

317
00:27:20,221 --> 00:27:23,433
прийняти моральне рішення забрати життя.

318
00:27:25,727 --> 00:27:31,191
Співпрацюю з Інститутом «Майбутнє життя» —
спільнотою вчених-активістів.

319
00:27:31,733 --> 00:27:33,443
Ми намагаємося показати,

320
00:27:33,526 --> 00:27:38,698
що є й інший бік прискорення
й ескалації автоматизації.

321
00:27:38,782 --> 00:27:42,619
Але ми намагаємося зробити так,
аби технології, які ми створюємо,

322
00:27:42,702 --> 00:27:45,038
застосовувалися безпечно й етично.

323
00:27:46,247 --> 00:27:49,959
Поговорімо про правила бойових дій

324
00:27:50,043 --> 00:27:54,005
і кодекси поведінки при використанні
ШІ в наших системах озброєнь.

325
00:27:54,798 --> 00:27:59,135
Бо зараз ми бачимо польові технології,

326
00:27:59,219 --> 00:28:01,680
які можуть убивати самостійно.

327
00:28:10,230 --> 00:28:15,110
У 2021 році ООН опублікувала звіт
про можливе застосування

328
00:28:15,193 --> 00:28:19,364
на полі бою в Лівії
смертоносної автономної зброї.

329
00:28:20,073 --> 00:28:23,910
Група ООН повідомила про дрон,
який у громадянській війні в Лівії

330
00:28:23,993 --> 00:28:27,330
був запрограмований
атакувати цілі в автономному режимі.

331
00:28:28,289 --> 00:28:31,209
Якщо звітність ООН точна,

332
00:28:31,292 --> 00:28:34,963
це стане переломним моментом для людства.

333
00:28:35,046 --> 00:28:37,090
Бо це випадок застосування,

334
00:28:37,173 --> 00:28:42,137
коли ШІ, а не людина,
прийняв рішення позбавити життя.

335
00:28:49,686 --> 00:28:51,688
Ви бачите сучасну автономну зброю,

336
00:28:51,771 --> 00:28:55,150
яку почали застосовувати
в різних місцях по всьому світу.

337
00:28:56,276 --> 00:28:58,278
Були повідомлення з Ізраїлю.

338
00:29:00,280 --> 00:29:05,702
Азербайджан застосував автономні системи
для пошуку і наведення на ППО Вірменії.

339
00:29:07,370 --> 00:29:09,998
Він годинами може літати над полем битви

340
00:29:10,081 --> 00:29:12,500
у пошуках цілі для самостійного враження,

341
00:29:12,584 --> 00:29:16,087
а потім улучає в них без утручання людини.

342
00:29:16,796 --> 00:29:18,298
І ми нещодавно бачили

343
00:29:18,381 --> 00:29:21,760
ці різні відео, які викладають в Україні.

344
00:29:23,303 --> 00:29:26,890
Невідомо, у якому режимі вони працювали.

345
00:29:26,973 --> 00:29:30,393
Чи людина була в курсі,
обирала цілі для атаки,

346
00:29:30,477 --> 00:29:32,729
чи машина робила це самостійно?

347
00:29:32,812 --> 00:29:36,524
Але точно настане момент у часі,

348
00:29:36,608 --> 00:29:40,195
будь-то в Лівії, в Україні чи деінде,

349
00:29:40,278 --> 00:29:44,449
коли машина сама вирішуватиме,
кого вбивати на полі бою.

350
00:29:47,035 --> 00:29:50,997
Машини, що застосовують
смертельну зброю проти людей

351
00:29:51,080 --> 00:29:53,374
без утручання людини,

352
00:29:53,458 --> 00:29:57,337
політично неприйнятні, морально огидні.

353
00:29:59,214 --> 00:30:01,299
Чи міжнародна спільнота

354
00:30:01,382 --> 00:30:05,011
впорається із цими викликами —

355
00:30:05,094 --> 00:30:06,888
це великий знак питання.

356
00:30:08,932 --> 00:30:12,685
Якщо дивитися в майбутнє,
навіть через кілька років,

357
00:30:12,769 --> 00:30:15,730
воно виглядає дуже страшно,

358
00:30:16,564 --> 00:30:20,485
ураховуючи, що обсяги
капіталу та людських ресурсів,

359
00:30:20,568 --> 00:30:23,404
залучених до посилення ШІ

360
00:30:23,488 --> 00:30:26,032
та його різноманітного застосування,

361
00:30:26,115 --> 00:30:26,950
неосяжні.

362
00:30:27,659 --> 00:30:32,163
АРЛІНГТОН
ВІРДЖИНІЯ

363
00:30:39,254 --> 00:30:41,214
Боже мій, цей хлопець.

364
00:30:41,756 --> 00:30:43,424
Він знає, що не переможе.

365
00:30:46,761 --> 00:30:51,099
Мене надихає, коли я бачу,
як ШІ долає різні проблеми.

366
00:30:51,683 --> 00:30:53,977
Запрошуємо на Заупокійну літургію.

367
00:30:54,477 --> 00:30:59,524
І ти можеш застосувати ту саму тактику,
техніку, процедури до справжніх літаків.

368
00:31:01,401 --> 00:31:02,318
Гарна гра.

369
00:31:02,402 --> 00:31:03,653
Гаразд, гарна гра.

370
00:31:08,658 --> 00:31:09,909
Мене дивує,

371
00:31:09,993 --> 00:31:14,122
що люди продовжують робити заяви
про те, на що ШІ не здатен. Розумієте?

372
00:31:14,205 --> 00:31:17,166
«Ніколи не переможе
чемпіона світу із шахів».

373
00:31:20,211 --> 00:31:22,672
Комп'ютер IBM повернувся у другій грі

374
00:31:22,755 --> 00:31:25,925
матчу із чемпіоном світу
з шахів Гаррі Каспаровим.

375
00:31:28,136 --> 00:31:30,847
Каспаров здався!

376
00:31:31,598 --> 00:31:34,642
Коли я бачу щось, чого не розумію,

377
00:31:34,726 --> 00:31:38,062
мені стає страшно.
І це й було дещо, чого я не розумію.

378
00:31:39,355 --> 00:31:41,107
А тоді люди казали:

379
00:31:41,190 --> 00:31:44,402
«Він ніколи не переможе
чемпіона світу з Ґо».

380
00:31:44,485 --> 00:31:50,700
Я вважаю, що людська інтуїція
все ще занадто розвинена для ШІ,

381
00:31:50,783 --> 00:31:52,827
щоб так її наздогнати.

382
00:31:55,330 --> 00:31:58,416
Ґо — одна з найскладніших
з точки зору навчання ігор,

383
00:31:58,499 --> 00:32:02,211
бо, якщо порахувати,
кількість можливих ходів на дошці,

384
00:32:02,295 --> 00:32:05,256
то їх більше, ніж атомів у всесвіті.

385
00:32:06,799 --> 00:32:08,968
У Google була команда DeepMind,

386
00:32:09,052 --> 00:32:11,471
яка створила програму AlphaGo,

387
00:32:11,554 --> 00:32:14,265
щоб перемогти найкращих гравців світу.

388
00:32:16,559 --> 00:32:18,394
Вітаємо з перемогою…

389
00:32:18,478 --> 00:32:19,437
-AlphaGo.
-AlphaGo.

390
00:32:19,520 --> 00:32:22,774
Комп'ютерна програма щойно
перемогла майстра 9-го дану.

391
00:32:25,610 --> 00:32:31,532
А потім DeepMind обрали StarCraft
своїм наступним викликом для ШІ.

392
00:32:33,743 --> 00:32:38,081
StarCraft, мабуть,
найпопулярніша стратегічна гра всіх часів.

393
00:32:40,333 --> 00:32:44,712
AlphaStar стала відомою,
коли перемогла чемпіонів світу.

394
00:32:45,338 --> 00:32:48,800
AlphaStar ущент розбиває Безсмертну Лігу.

395
00:32:48,883 --> 00:32:49,717
Знаєш що?

396
00:32:49,801 --> 00:32:52,553
У цій грі профі не переможуть.

397
00:32:53,680 --> 00:32:54,806
Це якось смішно.

398
00:32:57,642 --> 00:33:00,895
Професійні геймери казали:
«Я б не обрав таку тактику.

399
00:33:00,979 --> 00:33:04,816
Я б ніколи не обрав таку стратегію.
Це щось нелюдське».

400
00:33:07,151 --> 00:33:10,655
Це був, мабуть, момент «бінго» для мене.

401
00:33:13,574 --> 00:33:16,661
Я зрозумів, що цей час настав.

402
00:33:17,412 --> 00:33:21,082
Є важлива технологія
і можливість щось змінити.

403
00:33:24,502 --> 00:33:29,382
Я отримав лише досвід
спецпризначенця у ближньому бою,

404
00:33:30,383 --> 00:33:34,470
але один з моїх хороших друзів,
пілот F-18, сказав мені:

405
00:33:34,554 --> 00:33:37,724
«У пілотів винищувачів така ж проблема.

406
00:33:37,807 --> 00:33:39,434
Вони глушать зв'язок.

407
00:33:39,517 --> 00:33:44,439
Численні ракетні установки
"земля-повітря" є справжньою загрозою».

408
00:33:47,483 --> 00:33:50,987
Уявіть, якби у нас був винищувач,
яким командував ШІ.

409
00:33:51,070 --> 00:33:56,159
Вітаємо на випробуваннях AlphaDogfight.
Ми за кілька хвилин до першого півфіналу.

410
00:33:56,242 --> 00:33:59,871
В Агентстві перспективних
досліджень оборони DARPA

411
00:33:59,954 --> 00:34:03,624
бачили AlphaGo й AlphaStar,

412
00:34:04,292 --> 00:34:08,171
і цю ідею змагання AlphaDogfight
утілили в життя.

413
00:34:09,005 --> 00:34:13,593
Ось що хочеш бачити у своїх пілотів.
Це схоже на людські «собачі бої».

414
00:34:15,595 --> 00:34:19,057
Собачі бої — це двобої серед винищувачів.

415
00:34:19,849 --> 00:34:22,852
Можна вважати це
боксерським поєдинком у небі.

416
00:34:23,853 --> 00:34:26,314
Може, люди бачили фільм Top Gun.

417
00:34:26,397 --> 00:34:27,815
Зможемо втекти від них?

418
00:34:28,649 --> 00:34:30,068
Та не від ракет і куль.

419
00:34:30,151 --> 00:34:31,277
Тоді «собачий бій».

420
00:34:35,531 --> 00:34:39,410
Навчання із «собачих боїв»
може тривати вісім чи десять років.

421
00:34:42,288 --> 00:34:46,209
Збудувати такий штучний інтелект —
винятково складний виклик.

422
00:34:49,629 --> 00:34:52,381
АРЛІНГТОН
ВІРДЖИНІЯ

423
00:34:54,092 --> 00:34:58,679
Попередні підходи до автономії
та «собачого бою» були крихкими.

424
00:34:59,222 --> 00:35:03,017
Можливо, машинне навчання —
це спосіб розв'язати цю проблему.

425
00:35:04,477 --> 00:35:08,189
Спочатку ШІ нічого не знав
про світ, у якому опинився.

426
00:35:08,272 --> 00:35:11,025
Він не знав, що літає
і що таке «собачі бої».

427
00:35:11,109 --> 00:35:12,735
Він не знав, що таке F-16.

428
00:35:13,236 --> 00:35:15,905
Він знав лише про можливі дії,

429
00:35:15,988 --> 00:35:18,407
і він почав ці дії досліджувати.

430
00:35:19,325 --> 00:35:23,204
Синій літак тренувався
лише короткий проміжок часу.

431
00:35:23,287 --> 00:35:25,832
Видно, як він хитається вперед і назад,

432
00:35:26,624 --> 00:35:30,545
літає досить хаотично
та досить далеко від супротивника.

433
00:35:31,587 --> 00:35:32,755
З перебігом бою,

434
00:35:32,839 --> 00:35:36,134
як бачимо, синій починає
формувати свій ігровий план.

435
00:35:36,676 --> 00:35:38,636
Його позиція атаки покращується.

436
00:35:39,178 --> 00:35:41,305
Іноді алгоритм навчання казав:

437
00:35:41,389 --> 00:35:43,891
«Ось печиво. Продовжуй у цьому ж дусі».

438
00:35:45,143 --> 00:35:49,147
Наявні потужності комп'ютерів
дозволять навчати агентів інтенсивно

439
00:35:49,230 --> 00:35:50,064
й паралельно.

440
00:35:51,357 --> 00:35:52,775
Як баскетбольна команда.

441
00:35:53,276 --> 00:35:55,778
Замість постійної гри в одній команді

442
00:35:55,862 --> 00:35:59,198
ми мандруємо світом,
граючи з 512 різними командами,

443
00:35:59,699 --> 00:36:00,950
та з усіма одночасно.

444
00:36:01,492 --> 00:36:03,452
Станемо крутими та швидкими.

445
00:36:04,162 --> 00:36:07,456
Ми змогли провести безперервну симуляцію

446
00:36:07,540 --> 00:36:11,919
і отримати десять років
тренування пілота за десять місяців.

447
00:36:12,879 --> 00:36:15,673
Ми пройшли
від ледве контрольованого літака

448
00:36:15,756 --> 00:36:17,717
до холоднокровного вбивці.

449
00:36:19,010 --> 00:36:23,514
На тренуванні ми змагалися
лише з іншим штучним інтелектом.

450
00:36:24,473 --> 00:36:28,561
Але кінцевою метою
була боротьба безпосередньо з людьми.

451
00:36:34,192 --> 00:36:35,610
Мене звати Майк Бенітес,

452
00:36:36,110 --> 00:36:38,362
я підполковник ВПС США.

453
00:36:39,155 --> 00:36:41,157
Я на службі близько 25 років.

454
00:36:42,825 --> 00:36:44,869
У мене 250 бойових завдань,

455
00:36:45,578 --> 00:36:47,538
і я випускник «школи асів» ВПС,

456
00:36:48,039 --> 00:36:49,832
щось на зразок Top Gun.

457
00:36:52,627 --> 00:36:55,171
Я ніколи не літав проти ШІ.

458
00:36:55,254 --> 00:36:58,549
Я дуже хочу побачити, як добре я впораюсь.

459
00:36:59,634 --> 00:37:03,054
А тепер набір атак «ніс до носа»
на висоті двох кілометрів.

460
00:37:04,388 --> 00:37:05,223
До бою.

461
00:37:13,314 --> 00:37:14,148
Він уже зник.

462
00:37:14,732 --> 00:37:16,651
Це справді дуже цікаво,

463
00:37:20,780 --> 00:37:23,658
-Мертвий.
-Підбив. Ідеальна перемога.

464
00:37:25,910 --> 00:37:27,453
Гаразд, другий раунд.

465
00:37:35,461 --> 00:37:40,508
Штучний інтелект маневрує
з такою точністю,

466
00:37:41,384 --> 00:37:43,219
що я просто не встигаю за ним.

467
00:37:48,474 --> 00:37:49,725
Прямо на приціл.

468
00:37:50,309 --> 00:37:51,894
Тепер тебе нема.

469
00:37:53,145 --> 00:37:53,980
Підбив!

470
00:37:54,063 --> 00:37:55,022
Досі виграє.

471
00:37:58,567 --> 00:38:00,069
ШІ ніколи не боїться.

472
00:38:00,736 --> 00:38:03,781
У ШІ немає притаманної
людині емоційної складової.

473
00:38:04,991 --> 00:38:08,077
Однією з найцікавіших стратегій нашого ШІ

474
00:38:08,160 --> 00:38:10,121
став «постріл у чоло».

475
00:38:10,621 --> 00:38:14,000
Зазвичай люди воліють стріляти ззаду,

476
00:38:14,083 --> 00:38:16,377
бо їм важко вас позбутися.

477
00:38:17,044 --> 00:38:20,381
Не стріляють «в обличчя»
під час атаки «хто кого» в лоб.

478
00:38:21,424 --> 00:38:25,511
Коли ми прямуємо в лоб
із 900 до 150 метрів,

479
00:38:25,594 --> 00:38:27,096
усе стається миттєво.

480
00:38:27,596 --> 00:38:31,183
Ризик зіткнення високий,
тому люди не намагаються.

481
00:38:32,893 --> 00:38:35,938
ШІ не боятиметься смерті,
хіба що буде така команда.

482
00:38:37,857 --> 00:38:40,234
Здається, ніби я воюю проти людини,

483
00:38:40,776 --> 00:38:44,113
яка має безвідповідальне
ставлення до безпеки.

484
00:38:45,489 --> 00:38:47,325
Він не виживе.

485
00:38:57,168 --> 00:38:58,461
Йому бракує часу.

486
00:39:01,964 --> 00:39:02,965
Добраніч.

487
00:39:04,091 --> 00:39:04,925
Мені кінець.

488
00:39:16,812 --> 00:39:17,980
Прикро розуміти,

489
00:39:18,064 --> 00:39:20,900
що я навіть не найкращий для цієї місії,

490
00:39:21,484 --> 00:39:24,320
і ця річ одного дня зможе мене замінити.

491
00:39:25,696 --> 00:39:26,906
Знову шостий рівень.

492
00:39:27,615 --> 00:39:28,824
Зсув на тисячу.

493
00:39:29,450 --> 00:39:32,078
Перемога з пілотом ШІ
за штурвалом винищувача

494
00:39:32,828 --> 00:39:34,830
є безжальною, безкомпромісною.

495
00:39:34,914 --> 00:39:37,249
Це не просто перемога в широкому сенсі.

496
00:39:37,333 --> 00:39:41,545
Це: «Гаразд, як це встановити на літак?»
Настільки вона потужна.

497
00:39:43,672 --> 00:39:47,802
Цілком реально, що ШІ пілотуватиме F-16,

498
00:39:47,885 --> 00:39:49,970
і це станеться «не за горами».

499
00:39:51,305 --> 00:39:56,769
Якщо ви почнете бій проти пілота ШІ,
який має 99,99999% виграшу,

500
00:39:56,852 --> 00:39:58,646
у вас не буде жодного шансу.

501
00:39:59,605 --> 00:40:02,733
Якщо один пілот ШІ непереможний,

502
00:40:02,817 --> 00:40:06,695
то чого може досягти команда з 50 чи 100,

503
00:40:07,279 --> 00:40:12,535
чи 1 000 пілотів ШІ.

504
00:40:13,702 --> 00:40:18,791
«Роїння» — це команда дуже розумних
літаків, які співпрацюють між собою.

505
00:40:19,291 --> 00:40:23,462
Вони обмінюються інформацією про те,
що робити, як вирішити проблему.

506
00:40:25,172 --> 00:40:30,469
«Роїння» змінить правила гри
й трансформує наші потужності

507
00:40:30,553 --> 00:40:32,638
та потужності союзників.

508
00:40:34,223 --> 00:40:39,186
ЛІНКОЛЬН
НЕБРАСКА

509
00:41:42,750 --> 00:41:47,379
Ціль визначено, і дрони стежать за нею.

510
00:42:02,019 --> 00:42:03,604
Гаразд, тепер приземлення.

511
00:42:07,566 --> 00:42:10,402
Першочерговою метою
наших досліджень роїння

512
00:42:11,153 --> 00:42:13,697
є розгортання великої кількості дронів

513
00:42:13,781 --> 00:42:17,910
над важкодоступними
чи небезпечними теренами.

514
00:42:21,705 --> 00:42:26,085
Дослідницька лабораторія армії США
підтримує саме цей проєкт.

515
00:42:26,919 --> 00:42:28,963
Якщо хочеш знати, що там,

516
00:42:29,046 --> 00:42:32,883
але туди важко дістатися,
або це дуже велика територія,

517
00:42:33,676 --> 00:42:38,389
тоді розгортання рою —
цілком природне розширення зони охоплення

518
00:42:38,472 --> 00:42:41,934
і збору ключової для місії інформації.

519
00:42:46,689 --> 00:42:48,983
Отже, зараз, коли ми розгортаємо рій,

520
00:42:49,066 --> 00:42:53,904
ми даємо єдину команду —
відстежити об'єкт, що нас цікавить.

521
00:42:54,488 --> 00:42:57,283
Потім дрони вирушають
і роблять усе самостійно.

522
00:42:59,493 --> 00:43:04,081
Штучний інтелект дозволяє роботам
рухатися разом як рою

523
00:43:04,164 --> 00:43:05,708
децентралізовано.

524
00:43:10,671 --> 00:43:12,506
У природі рої, як ми бачимо,

525
00:43:13,299 --> 00:43:18,178
не мають «боса» — головної тварини,
яка б указувала їм, що робити.

526
00:43:20,556 --> 00:43:25,019
Поведінка виникає у кожної тварини

527
00:43:25,102 --> 00:43:27,104
за простими правилами.

528
00:43:27,688 --> 00:43:32,443
І з цього виростає нова
колективна поведінка, яку ви бачите.

529
00:43:33,944 --> 00:43:37,031
Найкраще у природних роях —

530
00:43:37,114 --> 00:43:39,992
це їхня граціозна здатність рухатися.

531
00:43:40,576 --> 00:43:44,288
Вони ніби створені,
щоб бути частиною цієї групи.

532
00:43:46,790 --> 00:43:51,128
В ідеалі, ми б хотіли, щоб наш рій дронів

533
00:43:51,211 --> 00:43:53,172
був схожий на рій у природі,

534
00:43:53,672 --> 00:43:56,717
коли група приймає рішення колективно.

535
00:43:59,928 --> 00:44:02,765
Інше, що нас надихає, —

536
00:44:02,848 --> 00:44:06,268
це надійність і витривалість.

537
00:44:07,311 --> 00:44:09,188
Цей рій не знижуватиметься,

538
00:44:09,271 --> 00:44:13,567
якщо хоч одна тварина
не робитиме те, що має.

539
00:44:15,194 --> 00:44:18,697
Навіть якщо один з агентів випаде,

540
00:44:18,781 --> 00:44:20,866
або не зможе виконати завдання,

541
00:44:21,909 --> 00:44:23,369
рії рухатиметься далі.

542
00:44:25,204 --> 00:44:27,873
Зрештою, це те, що ми хотіли б отримати.

543
00:44:29,333 --> 00:44:33,879
У нас є така потреба у бойових сценаріях
для ідентифікації літаків ворога,

544
00:44:33,962 --> 00:44:37,841
і колись потрібна була
одна людина, яка керувала одним роботом.

545
00:44:38,592 --> 00:44:40,552
Зі збільшенням автономії,

546
00:44:40,636 --> 00:44:43,555
сподіваюся, побачимо,
як велику кількість роботів

547
00:44:43,639 --> 00:44:46,558
контролює дуже мала кількість людей.

548
00:44:47,851 --> 00:44:50,854
Не бачу перешкод
для досягнення тисячного рою,

549
00:44:51,355 --> 00:44:54,942
адже кожен агент діятиме на свій розсуд,

550
00:44:55,025 --> 00:44:56,443
а можливості безмежні.

551
00:44:57,027 --> 00:44:59,071
Ми можемо масштабувати навчання…

552
00:44:59,154 --> 00:45:03,325
Ми вже досить давно працюємо
над симуляцією роїння,

553
00:45:03,409 --> 00:45:06,829
і настав час використати це
у справжньому польоті.

554
00:45:07,329 --> 00:45:12,042
Ми керуватимемо трьома роботами
одночасно через мережу,

555
00:45:12,126 --> 00:45:15,129
а потім додаватимемо нові можливості.

556
00:45:15,879 --> 00:45:18,549
Ми хочемо перевірити це на менших системах

557
00:45:18,632 --> 00:45:23,679
і перенести концепції на більші системи,
як реактивний винищувач.

558
00:45:24,596 --> 00:45:26,014
Ми часто обговорюємо,

559
00:45:26,098 --> 00:45:31,937
як передати взводу бойову силу батальйону?

560
00:45:34,982 --> 00:45:39,528
Чи батальйону — бойову силу бригади?

561
00:45:39,611 --> 00:45:41,488
Це вирішує роїння.

562
00:45:42,614 --> 00:45:45,200
Розкривши силу роїння,

563
00:45:45,284 --> 00:45:48,078
вийшов новий засіб
стратегічного стримування

564
00:45:48,162 --> 00:45:49,455
військової агресії.

565
00:45:52,332 --> 00:45:57,004
Гадаю, найцікавіше —
це кількість юнаків і дівчат,

566
00:45:57,087 --> 00:46:00,299
яких ми врятуємо,
якщо зробимо все правильно.

567
00:46:01,091 --> 00:46:03,594
Ми використовуємо машини,

568
00:46:04,553 --> 00:46:05,846
а не людські життя.

569
00:46:06,638 --> 00:46:10,893
Дехто вважає,
що автономна зброя зробить війну точнішою

570
00:46:10,976 --> 00:46:12,311
і більш гуманною,

571
00:46:12,853 --> 00:46:15,397
але насправді це важко передбачити —

572
00:46:15,481 --> 00:46:19,443
як автономна зброя
може змінити війну заздалегідь.

573
00:46:21,320 --> 00:46:23,238
Це як винахід кулемета Гатлінга.

574
00:46:25,073 --> 00:46:26,700
Гатлінг був винахідником,

575
00:46:27,201 --> 00:46:30,954
він бачив багатьох поранених
у Громадянській війні,

576
00:46:32,289 --> 00:46:35,292
і хотів знайти спосіб
зробити війну гуманнішою.

577
00:46:36,293 --> 00:46:39,797
Зменшити кількість
загиблих на війні солдатів,

578
00:46:40,422 --> 00:46:42,633
зменшивши кількість солдатів у битві.

579
00:46:44,092 --> 00:46:48,388
Тому він винайшов кулемет Гатлінга
із автоматичним обертанням дула,

580
00:46:48,472 --> 00:46:50,516
який автоматизував ведення вогню.

581
00:46:53,268 --> 00:46:57,981
Вогнева потужність зросла у 100 разів.

582
00:47:01,235 --> 00:47:05,239
Часто спроби зробити війну
точнішою та гуманнішою

583
00:47:06,490 --> 00:47:07,991
мають протилежний ефект.

584
00:47:10,160 --> 00:47:14,540
Зважте наслідки удару
безпілотником у сільській місцевості —

585
00:47:14,623 --> 00:47:17,209
місцеве населення виступає проти США,

586
00:47:17,292 --> 00:47:20,712
проти місцевої влади.
Нібито хороших хлопців.

587
00:47:22,589 --> 00:47:25,008
І помножте це на 1 000.

588
00:47:26,802 --> 00:47:28,720
Створення системи озброєнь,

589
00:47:28,804 --> 00:47:34,560
яка дешева, масштабована
і не потребує людей-операторів,

590
00:47:34,643 --> 00:47:37,896
кардинально змінює
фактичні бар'єри конфліктів.

591
00:47:40,107 --> 00:47:44,486
Я не можу заснути,
коли думаю про світ, охоплений війною,

592
00:47:44,987 --> 00:47:48,657
і нас більше не обтяжують
людські та фінансові витрати,

593
00:47:48,740 --> 00:47:51,410
бо ми настільки відсторонилися від

594
00:47:52,369 --> 00:47:54,037
життів, які будуть утрачені.

595
00:47:59,501 --> 00:48:01,420
Це все мене переслідує.

596
00:48:02,212 --> 00:48:05,924
Мені потрібен приклад
зловживання штучним інтелектом.

597
00:48:06,800 --> 00:48:10,888
Непередбачувані наслідки
цього простого експерименту

598
00:48:10,971 --> 00:48:12,848
зайшли надто далеко.

599
00:48:13,348 --> 00:48:16,226
ШІ У РОЗРОБЦІ ЛІКІВ:
НЕ ЗАВДАТИ БІЛЬШОЇ ШКОДИ

600
00:48:17,352 --> 00:48:22,107
Коли я виступив Із презентацією
про токсичні молекули, створені ШІ,

601
00:48:22,608 --> 00:48:24,318
авдиторія була шокована.

602
00:48:25,402 --> 00:48:27,613
П'ЯТЬ ТИСЯЧ СПОЛУК ВІДОМІ АНАЛОГИ VX

603
00:48:29,406 --> 00:48:33,577
Наступне рішення було,
чи публікувати цю інформацію.

604
00:48:34,912 --> 00:48:36,914
З одного боку — хочеш попередити

605
00:48:36,997 --> 00:48:40,125
світ про такі можливості, та з іншого —

606
00:48:40,208 --> 00:48:44,087
не хочеш подавати ідею,
якщо її ще не було.

607
00:48:46,381 --> 00:48:48,133
Ми вирішили опублікувати,

608
00:48:48,216 --> 00:48:52,679
щоб знайти способи
мінімізувати зловживання цим типом ШІ,

609
00:48:52,763 --> 00:48:54,139
до їхньої появи.

610
00:48:54,222 --> 00:48:56,975
ПОДВІЙНЕ ВИКОРИСТАННЯ ШІ У РОЗРОБЦІ ЛІКІВ

611
00:48:57,559 --> 00:49:00,437
ЯКІ ШТУЧНІ ТЕХНОЛОГІЇ ДЛЯ РОЗРОБКИ ЛІКІВ

612
00:49:01,897 --> 00:49:04,775
Реакція широкого загалу була шоковою.

613
00:49:07,194 --> 00:49:10,656
Ми бачимо статистику
з кількістю відвідувачів сторінки.

614
00:49:10,739 --> 00:49:14,451
Нам пощастить,
якщо статті, які ми зазвичай пишемо,

615
00:49:14,534 --> 00:49:19,831
зберуть декілька тисяч переглядів
за період року або навіть років.

616
00:49:19,915 --> 00:49:22,084
За тиждень прочитали 10 000 людей.

617
00:49:22,167 --> 00:49:25,337
Потім стало 20 000,
потім — 30 000, потім — 40 000,

618
00:49:25,837 --> 00:49:28,715
і в нас було до 10 000 людей на день.

619
00:49:30,258 --> 00:49:33,512
Ми були в «Економіст», «Файненшл Таймс».

620
00:49:35,639 --> 00:49:39,977
Радіолаб, вони зв'язалися.
Я чув про радіолаб!

621
00:49:41,937 --> 00:49:45,899
Але потім реакція вийшла з-під контролю.

622
00:49:49,778 --> 00:49:53,532
Коли бачимо ці твіти, це як:
«О Боже, чи зробили ще гірше?»

623
00:49:54,324 --> 00:49:55,993
Навіщо вони це зробили?

624
00:50:01,164 --> 00:50:04,501
А потім ми отримали запрошення,
якого я не очікував.

625
00:50:08,797 --> 00:50:12,926
У Білому домі статтю жваво обговорювали,

626
00:50:13,010 --> 00:50:15,345
і хотіли терміново поговорити з нами.

627
00:50:18,849 --> 00:50:20,809
Звісно, для мене велика честь

628
00:50:20,892 --> 00:50:23,020
розмовляти з людьми такого рівня.

629
00:50:23,603 --> 00:50:25,272
Але тебе вражає блискавка:

630
00:50:25,355 --> 00:50:28,900
«Боже, це Білий дім. Бос».

631
00:50:29,693 --> 00:50:33,196
Йшлося про поєднання наборів даних
із відкритим кодом.

632
00:50:33,280 --> 00:50:37,701
Приблизно за шість годин
модель змогла згенерувати понад 40 000…

633
00:50:37,784 --> 00:50:41,038
Вони питали, яка потужність
знадобилося для обчислень,

634
00:50:41,872 --> 00:50:43,832
ми сказали: «Нічого особливого».

635
00:50:44,332 --> 00:50:48,211
Буквально звичайний шестирічний Мак.

636
00:50:49,546 --> 00:50:51,256
І це їх вразило.

637
00:50:54,968 --> 00:50:59,473
Люди, які відповідають за хімічну зброю,

638
00:50:59,556 --> 00:51:04,019
й урядові агенції
не здогадувалися про цей потенціал.

639
00:51:06,605 --> 00:51:09,816
У нас є кулінарна книга,
щоб зробити цю хімічну зброю,

640
00:51:10,650 --> 00:51:15,572
і в поганих руках зловмисника

641
00:51:16,573 --> 00:51:18,992
вона може жахати.

642
00:51:21,703 --> 00:51:23,205
Люди мають дослухатися,

643
00:51:23,288 --> 00:51:26,458
а ми мусимо зробити кроки
до регулювання технології

644
00:51:27,250 --> 00:51:30,670
або обмежити можливість зловживання нею.

645
00:51:31,880 --> 00:51:35,175
Бо потенціал смертельності

646
00:51:36,176 --> 00:51:37,344
вражає.

647
00:51:40,680 --> 00:51:45,977
Питання етики ШІ
значною мірою вирішується суспільством,

648
00:51:46,561 --> 00:51:50,273
а не інженерами,
технологами чи математиками.

649
00:51:52,484 --> 00:51:56,822
Кожна технологія,
яку ми впроваджуємо, кожна інновація

650
00:51:56,905 --> 00:52:00,617
підпадає під контроль суспільства,
як маємо їх застосовувати.

651
00:52:03,036 --> 00:52:06,498
Зараз Міністерство оборони каже:

652
00:52:06,581 --> 00:52:09,960
«Останню, кого ми вб'ємо

653
00:52:10,043 --> 00:52:11,920
на полі бою — людину».

654
00:52:12,504 --> 00:52:14,548
Машина може вбити,

655
00:52:15,674 --> 00:52:18,927
але лише за наказом людини-оператора,

656
00:52:19,636 --> 00:52:21,429
а я не бачу, щоб це змінилося.

657
00:52:24,808 --> 00:52:28,103
Вони запевняють нас,
що ця технологія буде безпечною.

658
00:52:29,729 --> 00:52:33,692
Але військові Сполучених Штатів
не мають надійної репутації

659
00:52:33,775 --> 00:52:35,485
у війні дронів.

660
00:52:36,820 --> 00:52:41,783
Тому, коли справа доходить
до довіри американським військовим із ШІ,

661
00:52:41,867 --> 00:52:44,953
послужний список говорить сам за себе,

662
00:52:46,288 --> 00:52:50,125
Політика Міноборони США
щодо використання автономії у зброї

663
00:52:50,208 --> 00:52:52,919
не забороняє жодну систему зброї.

664
00:52:53,003 --> 00:52:56,715
Навіть якщо військовим
не потрібна автономна зброя,

665
00:52:56,798 --> 00:53:01,678
ми бачимо, як військові передають
усе більше рішень машинам,

666
00:53:01,761 --> 00:53:03,680
щоб утримувати темп конкуренції.

667
00:53:04,764 --> 00:53:08,351
Це може змусити військових
автоматизувати рішення,

668
00:53:08,435 --> 00:53:09,978
які їм не потрібні.

669
00:53:12,022 --> 00:53:16,693
Путін сказав:
«Той, хто керує ШІ, керуватиме світом».

670
00:53:17,736 --> 00:53:23,325
Президент Сі дав зрозуміти, що ШІ —
одна з пріоритетних технологій,

671
00:53:23,408 --> 00:53:25,702
у якій Китай хоче домінувати.

672
00:53:26,786 --> 00:53:29,831
Ми точно змагаємося за технології.

673
00:53:33,501 --> 00:53:35,670
Люди говорять про бар'єри,

674
00:53:36,463 --> 00:53:39,424
і я вважаю, що люди мають це робити.

675
00:53:40,467 --> 00:53:45,180
Але існують справжні перегони
за панування в області ШІ.

676
00:53:47,265 --> 00:53:51,603
І наші супротивники,
чи то Китай, чи то Росія, чи то Іран,

677
00:53:52,187 --> 00:53:56,566
не будуть роздумувати про те,
що наша політика говорить про ШІ.

678
00:54:00,820 --> 00:54:04,324
Ми чуємо набагато більше
розмов про політику щодо ШІ,

679
00:54:06,117 --> 00:54:09,287
та я б хотів,
аби більше лідерів вели розмову:

680
00:54:09,371 --> 00:54:11,706
«Як швидко можемо це збудувати?

681
00:54:12,707 --> 00:54:15,168
Зробимо все, що треба, і побудуємо його».

682
00:54:16,419 --> 00:54:18,838
ВАШИНГТОН, ОКРУГ КОЛУМБІЯ

683
00:54:18,922 --> 00:54:21,299
ААСША: ЩОРІЧНІ ЗБОРИ І ВИСТАВКА
ВАШИНГТОН

684
00:54:24,177 --> 00:54:26,805
АРМІЯ США

685
00:54:33,478 --> 00:54:38,358
Ми на найбільшій цього року виставці
Асоціації армії США.

686
00:54:39,609 --> 00:54:44,572
По суті, будь-який постачальник,
який продає товар чи технологію армії,

687
00:54:44,656 --> 00:54:46,616
буде виставляти товар.

688
00:54:47,701 --> 00:54:50,537
На базі ВПС Тиндалл є чотири наших роботи,

689
00:54:50,620 --> 00:54:53,748
які патрулюють базу
цілодобово й без вихідних.

690
00:54:55,750 --> 00:55:00,130
Ми можемо додати все:
від камер до сенсорів, усе що завгодно.

691
00:55:00,213 --> 00:55:05,135
Маніпулятори. Знову ж таки,
щоб виконати місію, яку має замовник.

692
00:55:06,678 --> 00:55:08,638
А якщо ваш ворог запровадить ШІ?

693
00:55:09,431 --> 00:55:12,976
Бойову систему, яка думає швидше за вас,

694
00:55:13,059 --> 00:55:16,062
реагує швидше, ніж людина?
Треба підготуватися.

695
00:55:17,605 --> 00:55:21,359
Ми навчаємо наші системи
збирати розвіддані про ворога,

696
00:55:22,027 --> 00:55:26,531
нищити ворожі цілі
під контролем ланцюга вбивств людьми.

697
00:55:33,288 --> 00:55:34,956
-Так, генерале.
-Як справи?

698
00:55:35,040 --> 00:55:36,416
Добре, сер. Як справи?

699
00:55:37,709 --> 00:55:40,962
Скажу лише, що ніхто
не інвестує в пілота ШІ більше.

700
00:55:41,046 --> 00:55:42,630
Назва пілота ШІ — Hivemind.

701
00:55:43,298 --> 00:55:47,135
Ми застосували його
до квадрокоптера «Нова». Влітає у будівлі,

702
00:55:47,218 --> 00:55:49,387
досліджує їх раніше сил спецоперацій

703
00:55:49,471 --> 00:55:50,805
та піхоти.

704
00:55:50,889 --> 00:55:52,891
Застосовуємо Hivemind до «V-BAT»,

705
00:55:52,974 --> 00:55:56,811
тож я мрію про сотні таких команд.

706
00:55:56,895 --> 00:55:58,730
Чи то через Тайванську протоку,

707
00:55:58,813 --> 00:56:01,608
чи то в Україні, для стримування ворога.

708
00:56:01,691 --> 00:56:03,360
Тож я дуже радий.

709
00:56:03,943 --> 00:56:06,196
-Гаразд. Дякую.
-Тож дякую, генерале.

710
00:56:07,989 --> 00:56:13,370
Пілоти ШІ мають бути всюдисущими,
і це має статися до 2025–2030-х років.

711
00:56:14,204 --> 00:56:17,582
Його швидко приймуть
військові по всьому світу.

712
00:56:19,250 --> 00:56:22,962
Що ви робите
з румунськими військовими, безпілотник?

713
00:56:23,046 --> 00:56:24,589
Високі технології в армії.

714
00:56:25,256 --> 00:56:29,803
Ми витратили пів мільярда доларів
на створення пілота ШІ.

715
00:56:29,886 --> 00:56:33,181
Та ще мільярд доларів
протягом наступних п'яти років.

716
00:56:33,264 --> 00:56:37,769
Це головна причина,
чому ми рекордно виграємо в США.

717
00:56:37,852 --> 00:56:38,853
Непогано.

718
00:56:38,937 --> 00:56:42,732
Це вражає. То вам удалося озброїти його?

719
00:56:43,650 --> 00:56:45,568
Він ще не озброєний.

720
00:56:45,652 --> 00:56:48,321
Поки що ні. Але так, у майбутньому.

721
00:56:48,905 --> 00:56:52,534
Наші клієнти уявляють вантажівку.
Ми — розумну вантажівку,

722
00:56:52,617 --> 00:56:54,452
яка здатна на багато чого.

723
00:56:54,536 --> 00:56:55,703
-Дякую, друже.
-Так.

724
00:56:55,787 --> 00:56:57,914
Я неодмінно зв'яжуся з вами.

725
00:57:01,668 --> 00:57:04,129
За десять років ви помітите,

726
00:57:04,212 --> 00:57:10,802
що на ринку пануватимуть
ШІ та рішення з автономії.

727
00:57:14,889 --> 00:57:19,352
Автономні сили, які підтримуються ШІ,

728
00:57:19,436 --> 00:57:25,108
будуть панувати над силами
та знищувати сили без такої складової.

729
00:57:26,401 --> 00:57:30,780
Це буде еквівалент коней,
що йдуть проти танків,

730
00:57:31,781 --> 00:57:34,367
мечоносців — проти кулеметів.

731
00:57:34,909 --> 00:57:37,120
Це навіть не можна буде порівняти.

732
00:57:38,746 --> 00:57:42,750
ШІ широко й повсюдно
застосовуватиметься в усіх аспектах війни:

733
00:57:43,585 --> 00:57:44,836
на тактичному рівні,

734
00:57:45,336 --> 00:57:46,546
стратегічному рівні,

735
00:57:47,172 --> 00:57:50,800
що працює на швидкості,
яку люди не можуть уявити.

736
00:57:53,094 --> 00:57:57,098
Командири вже переповнені
завеликим обсягом інформації.

737
00:57:57,599 --> 00:58:01,019
Знімки із супутників, дронів і сенсорів.

738
00:58:02,103 --> 00:58:03,396
ШІ також уміє

739
00:58:03,480 --> 00:58:06,774
допомогти командиру
швидше зрозуміти, що відбувається.

740
00:58:07,650 --> 00:58:09,903
А потім: «Які рішення я маю прийняти?»

741
00:58:11,237 --> 00:58:14,866
Штучний інтелект урахує всі чинники,

742
00:58:14,949 --> 00:58:17,702
які визначають спосіб ведення війни,

743
00:58:18,286 --> 00:58:20,246
розробить стратегію…

744
00:58:22,540 --> 00:58:25,668
і надасть рекомендації, як виграти битву.

745
00:58:30,256 --> 00:58:32,133
САФФОЛК
ВІРДЖИНІЯ

746
00:58:32,217 --> 00:58:34,344
«ЛОКХІД МАРТІН»
ЦЕНТР З ІННОВАЦІЙ

747
00:58:36,971 --> 00:58:40,266
Ми у «Локхід Мартін»,
як і наш клієнт — Міноборони,

748
00:58:40,350 --> 00:58:43,770
розглядаємо ШІ
як ключову технологію, що дає змогу

749
00:58:43,853 --> 00:58:45,104
управляти і керувати.

750
00:58:46,981 --> 00:58:50,109
Швидкість поширення
в середньому 0,6 метра на секунду.

751
00:58:50,193 --> 00:58:52,278
Периметр — близько 283 гектарів.

752
00:58:52,779 --> 00:58:55,782
Туман війни — це реальність
з точки зору оборони,

753
00:58:57,158 --> 00:59:00,495
яка має паралелі й у середовищі,

754
00:59:00,578 --> 00:59:03,206
а рішення потрібні й у випадку пожеж.

755
00:59:03,289 --> 00:59:06,543
Пожежа у Вошберні на півночі міста Вавона.

756
00:59:06,626 --> 00:59:09,629
Треба приймати рішення
на основі недосконалих даних.

757
00:59:10,630 --> 00:59:14,300
Тож як ШІ допоможе нам у тумані війни?

758
00:59:17,637 --> 00:59:19,597
Лісові пожежі дуже хаотичні.

759
00:59:20,181 --> 00:59:21,266
Вони дуже складні,

760
00:59:22,267 --> 00:59:26,354
тому ми працюємо
над використанням штучного інтелекту

761
00:59:26,437 --> 00:59:27,855
для прийняття рішень.

762
00:59:31,442 --> 00:59:33,987
Менеджер когнітивної місії —
наша програма,

763
00:59:34,070 --> 00:59:37,949
що знімає інфрачервоне відео,

764
00:59:38,032 --> 00:59:41,786
а потім обробляє його
за допомогою наших алгоритмів ШІ,

765
00:59:41,869 --> 00:59:45,248
щоб передбачити майбутній стан пожежі.

766
00:59:48,042 --> 00:59:49,794
Коли ми рухаємося в майбутнє,

767
00:59:49,877 --> 00:59:52,922
Менеджер когнітивної місії
використає симуляцію,

768
00:59:53,006 --> 00:59:57,093
запустить сценарії на тисячі циклів,

769
00:59:57,176 --> 01:00:00,722
щоб рекомендувати найефективніший спосіб
використати ресурси,

770
01:00:00,805 --> 01:00:04,058
щоб придушити важливі зони вогню.

771
01:00:08,062 --> 01:00:12,400
Це буде: «Зробити повітряне придушення
за допомогою Firehawk».

772
01:00:13,568 --> 01:00:15,903
«Узяти наземні бригади зачистки,

773
01:00:16,946 --> 01:00:19,032
вогнеборців зі шлангами

774
01:00:19,657 --> 01:00:23,077
і перекинути у місце
з найвищим пріоритетом».

775
01:00:26,289 --> 01:00:29,292
Ці рішення можна формувати швидше

776
01:00:29,375 --> 01:00:31,044
й ефективніше.

777
01:00:35,840 --> 01:00:38,468
Ми вважаємо ШІ унікальним,
що дозволяє людям

778
01:00:38,551 --> 01:00:42,305
орієнтуватися у мінливому середовищі.

779
01:00:43,389 --> 01:00:46,517
Є багато паралелей з тим,

780
01:00:46,601 --> 01:00:50,355
до чого ми звикли в «Локхід Мартін»
з точки зору оборони.

781
01:00:52,231 --> 01:00:55,860
Військові більше не говорять
про просте використання ШІ

782
01:00:55,943 --> 01:01:00,323
і окремих систем озброєння для наведення
та наказів про враження цілей,

783
01:01:00,865 --> 01:01:02,200
але про інтеграцію ШІ

784
01:01:02,283 --> 01:01:05,787
у військову архітектуру прийняття рішень.

785
01:01:09,457 --> 01:01:12,960
В армії є великий проєкт «Конвергенція».

786
01:01:14,545 --> 01:01:16,589
На флоті є «Перевершення».

787
01:01:16,673 --> 01:01:19,592
У ВПС є Вдосконалена Система
Управління Боєм.

788
01:01:21,886 --> 01:01:24,138
Міноборони намагається з'ясувати:

789
01:01:24,222 --> 01:01:26,683
«Як зібрати всі ці частини докупи,

790
01:01:26,766 --> 01:01:29,268
щоб ми могли діяти швидше, ніж наш ворог

791
01:01:30,395 --> 01:01:32,355
і отримати справжню перевагу?»

792
01:01:33,481 --> 01:01:37,527
Бойовий менеджер ШІ —
це високопоставлений генерал,

793
01:01:37,610 --> 01:01:39,821
який може керувати битвою.

794
01:01:41,155 --> 01:01:44,158
Допомагати віддавати накази
великій кількості сил,

795
01:01:45,118 --> 01:01:49,247
координувати дії всіх видів озброєння

796
01:01:49,330 --> 01:01:51,958
із недосяжною для людини швидкістю.

797
01:01:53,543 --> 01:01:55,294
Ми провели останні 70 років,

798
01:01:55,378 --> 01:01:58,798
будуючи найскладніші
військові сили на планеті,

799
01:01:58,881 --> 01:02:03,177
і зараз ми вирішуємо,
чи хочемо поступитися контролем

800
01:02:03,261 --> 01:02:07,598
над інфраструктурою алгоритму,
програмному забезпеченню.

801
01:02:10,351 --> 01:02:13,187
Наслідки цього рішення можуть

802
01:02:13,271 --> 01:02:16,774
задіяти повну міць
наших військових арсеналів.

803
01:02:16,858 --> 01:02:19,902
Це не одна Хіросіма. Це сотні Хіросім.

804
01:02:25,616 --> 01:02:27,869
Настав час діяти,

805
01:02:27,952 --> 01:02:33,166
бо вікно стримування ризику
швидко закривається.

806
01:02:35,126 --> 01:02:39,338
Сьогодні ми розпочнемо
з викликів міжнародній безпеці

807
01:02:39,422 --> 01:02:41,132
з боку новітніх технологій

808
01:02:41,215 --> 01:02:44,343
в області автономних систем
летального озброєння.

809
01:02:44,427 --> 01:02:47,722
В ООН ведуться розмови щодо загрози

810
01:02:47,805 --> 01:02:50,016
летального автономного озброєння

811
01:02:50,600 --> 01:02:56,564
і нашої заборони систем із ШІ,
здатних розпізнавати й вибирати людей.

812
01:02:56,647 --> 01:03:00,777
Консенсус між технологами
очевидний і глибокий.

813
01:03:00,860 --> 01:03:04,030
Ми проти автономної зброї,
націленої на людей.

814
01:03:05,615 --> 01:03:08,993
Багато років країни підтримують дискусію

815
01:03:09,076 --> 01:03:11,329
щодо автономних летальних систем.

816
01:03:12,288 --> 01:03:16,793
Це про спільне почуття безпеки.

817
01:03:17,794 --> 01:03:20,546
Але, звісно, це нелегко.

818
01:03:21,297 --> 01:03:25,968
Деякі країни, особливо
провідні військові держави,

819
01:03:26,052 --> 01:03:27,762
хочуть бути завжди попереду,

820
01:03:28,429 --> 01:03:31,599
щоб обігнати своїх супротивників.

821
01:03:32,600 --> 01:03:36,187
Проблема в тому,
що всі мають погодитися, щоб щось зробити.

822
01:03:36,896 --> 01:03:39,065
Принаймні одна країна буде проти,

823
01:03:39,148 --> 01:03:42,109
а США й Росія ясно дали зрозуміти,

824
01:03:42,193 --> 01:03:45,655
що виступають проти
Договору про заборону автономної зброї.

825
01:03:47,198 --> 01:03:53,204
Коли ми уявимо кімнату людей,
які працюють над посиленням ШІ,

826
01:03:54,747 --> 01:03:56,457
забракне місця через натовп.

827
01:03:57,750 --> 01:04:02,880
Коли ми уявимо кімнату людей,
які дбають про безпечне використання ШІ,

828
01:04:04,340 --> 01:04:07,510
у кімнаті буде повно вільних місць.

829
01:04:11,764 --> 01:04:13,724
Але я все ж оптимістка.

830
01:04:16,060 --> 01:04:19,480
Я дивлюся на щось на кшталт
Конвенції про біологічну зброю,

831
01:04:19,564 --> 01:04:22,358
яку уклали посеред холодної війни,

832
01:04:23,025 --> 01:04:27,655
попри напруженість
між Радянським Союзом і США.

833
01:04:29,156 --> 01:04:33,536
Вони зрозуміли,
що розробка біологічної зброї

834
01:04:33,619 --> 01:04:36,247
не відповідає ані їхнім інтересам,

835
01:04:36,330 --> 01:04:38,749
ані інтересам усього світу.

836
01:04:41,335 --> 01:04:44,714
У гонці озброєнь
швидкість важливіша за безпеку.

837
01:04:45,715 --> 01:04:48,342
Але я вважаю, що важливо врахувати,

838
01:04:48,426 --> 01:04:52,430
що на якомусь етапі
ціна руху вперед зависока.

839
01:04:56,225 --> 01:04:59,270
Ми не можемо розробляти речі ізольовано

840
01:05:00,021 --> 01:05:06,611
і залишати, не думаючи про те,
яке майбутнє на них чекає.

841
01:05:07,862 --> 01:05:10,823
Ми маємо запобігти
моменту початку атомної війни.

842
01:05:14,577 --> 01:05:17,705
Ставки на перегони ШІ величезні.

843
01:05:18,289 --> 01:05:22,001
Не думаю, що багато хто цінує
глобальну стабільність,

844
01:05:22,084 --> 01:05:28,174
яку забезпечує принцип
переваги у військовій силі

845
01:05:28,257 --> 01:05:31,135
протягом останніх 75 років.

846
01:05:32,887 --> 01:05:35,681
Тому Сполучені Штати та наші союзники

847
01:05:36,557 --> 01:05:38,684
мають перевершити ШІ суперників.

848
01:05:43,314 --> 01:05:44,774
У війні один переможець.

849
01:05:45,524 --> 01:05:49,111
Китай має амбіції
стати світовим лідером зі ШІ до 2030 року.

850
01:05:49,195 --> 01:05:51,656
Деякі вважають, що Америка програє…

851
01:05:52,740 --> 01:05:56,160
Ви пришвидшите
впровадження штучного інтелекту задля

852
01:05:56,243 --> 01:05:59,246
забезпечення нашої конкурентної
військової переваги.

853
01:06:02,875 --> 01:06:05,461
Ми женемо вперед із цією технологією.

854
01:06:05,544 --> 01:06:08,673
Гадаю, незрозуміло, як далеко ми зайдемо?

855
01:06:09,507 --> 01:06:12,760
Ми контролюємо технології
чи вони контролюють нас?

856
01:06:14,136 --> 01:06:16,973
Немає можливості переробити заново.

857
01:06:17,807 --> 01:06:20,977
Щойно джин вийде з пляшки, він вільний.

858
01:06:22,019 --> 01:06:25,189
І повернути його дуже важко.

859
01:06:28,609 --> 01:06:31,737
А якщо не діяти зараз, буде запізно.

860
01:06:33,114 --> 01:06:34,657
Можливо, уже запізно.

861
01:08:48,124 --> 01:08:53,254
Переклад субтитрів: Дмитро Коваль



