1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
Yapay zekâyı
hayranlık uyandırıcı buluyorum.

4
00:00:28,361 --> 00:00:31,489
Daire çiziyoruz. Diziliş iyi.

5
00:00:33,116 --> 00:00:37,704
Yapay zekânın, yoksulluğu
ortadan kaldırma, bize yeni ilaçlar sunma,

6
00:00:37,787 --> 00:00:41,583
dünyamızı daha huzurlu kılma
potansiyeli var.

7
00:00:46,087 --> 00:00:46,921
Bravo.

8
00:00:49,883 --> 00:00:53,428
Ancak bu yolda pek çok risk söz konusu.

9
00:01:04,773 --> 00:01:07,567
Yapay zekâyla, öngörülemeyen,

10
00:01:07,650 --> 00:01:11,863
insan olmayan bir zekâ yaratıyoruz.

11
00:01:14,407 --> 00:01:16,451
Daha da güçlendikçe

12
00:01:16,534 --> 00:01:19,579
onu nasıl kullanmak isteyip
istemediğimiz konusunda

13
00:01:19,662 --> 00:01:22,665
yapay zekâya çizeceğimiz
kırmızı çizgiler ne olacak?

14
00:01:25,001 --> 00:01:27,629
Bu konuşmaya başlamak için

15
00:01:27,712 --> 00:01:31,049
askerî uygulamalardan
daha mühim bir şey yok.

16
00:01:34,010 --> 00:01:38,890
Muharebe alanı artık
yazılım ve donanım bölgesi oldu.

17
00:01:41,059 --> 00:01:42,936
Hedef tespit edildi…

18
00:01:43,019 --> 00:01:48,399
Ordular düşmanlarından daha hızlıca
yapay zekâ geliştirmeye çalışıyor.

19
00:01:49,526 --> 00:01:50,360
Öldüm.

20
00:01:53,780 --> 00:01:58,326
Sadece büyük orduların değil,
devlet dışı aktörlerin, özel sektörlerin,

21
00:01:58,409 --> 00:02:02,997
hatta sokağın aşağısındaki
emniyet müdürlüğünün

22
00:02:03,081 --> 00:02:06,459
kendi başına öldürebilen
bu silahları kullanabileceği

23
00:02:06,543 --> 00:02:10,046
bir dünyaya doğru hızlıca yol alıyoruz.

24
00:02:12,006 --> 00:02:17,303
Can alma kararını algoritmalara,
bilgisayar yazılımlarına bırakacak mıyız?

25
00:02:18,638 --> 00:02:21,516
Zamanımızın en acil sorunlarından biri bu.

26
00:02:23,935 --> 00:02:26,354
Akıllıca kullanılmadığı takdirde

27
00:02:26,437 --> 00:02:30,275
gezegendeki herkes için
büyük bir risk teşkil edecekler.

28
00:02:41,786 --> 00:02:44,914
BİLİNMEYENLER

29
00:02:46,833 --> 00:02:49,836
KATİL ROBOTLAR

30
00:03:28,291 --> 00:03:30,168
İyi iş çıkardınız arkadaşlar.

31
00:03:59,948 --> 00:04:03,117
-Daha öncekinden çok daha geniş bir lens.
-Sahi mi?

32
00:04:03,201 --> 00:04:06,287
-Çok daha fazla veri görebilirsiniz.
-Çok havalı.

33
00:04:07,538 --> 00:04:13,378
Shield AI olarak araç kullanma becerisine
ve yapay zekâ teknolojisine sahip bir

34
00:04:13,461 --> 00:04:16,631
pilot geliştirip onu bir
hava aracına yüklüyoruz.

35
00:04:19,300 --> 00:04:21,719
"Yapay zekâya sahip pilot" derken

36
00:04:21,803 --> 00:04:25,640
bir uçağa daha yüksek seviyede bir
otonomi vermeyi düşünüyoruz.

37
00:04:25,723 --> 00:04:27,850
Sorunları kendileri çözecekler.

38
00:04:29,602 --> 00:04:32,355
Nova otonom bir dört pervaneli helikopter.

39
00:04:32,438 --> 00:04:36,776
Binaları, yer altı yapılarını keşfediyor.

40
00:04:36,859 --> 00:04:38,736
Temizleme kuvvetlerinin önünde,

41
00:04:38,820 --> 00:04:41,322
bu alanlarda onların
gözü ve kulağı oluyor.

42
00:04:41,906 --> 00:04:45,618
Son gördüğümüzden bu yana
çok geliştirilmiş.

43
00:04:45,702 --> 00:04:47,870
Keşifte bazı değişiklikler olacak.

44
00:04:47,954 --> 00:04:50,206
Kat kat çalışıyoruz.

45
00:04:50,290 --> 00:04:53,584
İkinci kata geçmeden önce
katın tüm odalarını bitirecek.

46
00:04:54,294 --> 00:04:56,796
-Harika.
-Bazı değişiklikler yaptık…

47
00:04:56,879 --> 00:05:02,468
Yapay zekânın neden
önemli bir beceri olduğunu soruyorlar.

48
00:05:02,552 --> 00:05:06,973
İcra ettiğim görevleri hatırlıyorum.

49
00:05:09,142 --> 00:05:10,935
Yedi yıl görev yaptım.

50
00:05:11,561 --> 00:05:15,273
İki kez Afganistan'a,
bir kez de Pasifik'e tayin edilmiş

51
00:05:15,356 --> 00:05:17,191
eski bir deniz komandosuydum.

52
00:05:18,026 --> 00:05:22,947
Bir günde 150 farklı yerleşimi
veya binayı temizlememiz gerekebiliyordu.

53
00:05:30,997 --> 00:05:34,250
Temel yeteneklerden biri yakın çatışma.

54
00:05:35,293 --> 00:05:39,172
Binaların içinde
çok yakın mesafeden silahlı çatışma.

55
00:05:41,466 --> 00:05:46,471
Sana ateş ediliyor. Binanın içinde
ev yapımı patlayıcılar olabiliyor.

56
00:05:49,015 --> 00:05:52,727
Herhangi bir özel kuvvetler mensubunun

57
00:05:52,810 --> 00:05:58,358
veya piyadenin muharebe bölgesinde
yapabileceği en tehlikeli şey budur.

58
00:05:58,441 --> 00:05:59,442
İstisnasız.

59
00:06:12,497 --> 00:06:16,667
Donanmada geçirdiğim zamanlar için
hayatım boyunca minnettar olacağım.

60
00:06:17,168 --> 00:06:21,130
Düşündüğümde duygulandığım

61
00:06:21,214 --> 00:06:24,592
anlar ve anılar var.

62
00:06:28,346 --> 00:06:33,059
"Özgürlük bedava değildir" klişe bir laf
ama buna yüzde yüz inanıyorum.

63
00:06:33,559 --> 00:06:37,313
Bunu yaşadım. Çok fedakârlık gerekiyor.

64
00:06:37,939 --> 00:06:38,940
Affedersiniz.

65
00:06:41,067 --> 00:06:44,570
Takım arkadaşlarından birinin başına
kötü bir şey gelmesi,

66
00:06:44,654 --> 00:06:49,700
yaralanmaları, ölmeleri
çok trajik bir şey.

67
00:06:49,784 --> 00:06:52,912
Şu an yaptığımız işte

68
00:06:52,995 --> 00:06:58,000
bunların tekrarlanma sayısını azaltabilmek

69
00:06:58,084 --> 00:07:00,336
beni motive eden şey.

70
00:07:07,176 --> 00:07:08,886
2000'lerin sonunda

71
00:07:08,970 --> 00:07:11,556
Savunma Bakanlığı'nda bir uyanış yaşandı.

72
00:07:11,639 --> 00:07:15,351
Yaşanan şey tesadüfi bir robot devrimiydi.

73
00:07:15,893 --> 00:07:19,564
Irak'a ve Afganistan'a
binlerce hava ve kara robotu gönderdik.

74
00:07:21,482 --> 00:07:26,404
Obama yönetimi beni
Savunma Bakan Yardımcısı atadığında

75
00:07:26,904 --> 00:07:31,117
muharebe teknikleri
kesinlikle değişiyordu.

76
00:07:32,452 --> 00:07:36,330
Eskiden insanların kullanıldığı yerlerde
robotlar kullanılıyordu.

77
00:07:37,957 --> 00:07:40,460
İlk robotik sistemler
uzaktan kumandalıydı.

78
00:07:40,960 --> 00:07:45,590
Uzaktan kumandalı bir araba gibi,
onu süren bir insan vardı.

79
00:07:46,591 --> 00:07:51,721
İlk etapta ev yapımı patlayıcıların
peşine düştüler.

80
00:07:52,513 --> 00:07:54,849
Bomba patlarsa robot da patlıyordu.

81
00:07:57,268 --> 00:08:00,396
O zaman şöyle derdin,
"Kötü oldu. Diğer robotu çıkar."

82
00:08:02,273 --> 00:08:04,484
Afganistan'da Predator dronu vardı.

83
00:08:05,276 --> 00:08:09,739
Hava saldırıları için
çok kullanışlı bir araç hâline geldi.

84
00:08:13,117 --> 00:08:16,829
Askerî planlamacılar zamanla şöyle dedi,

85
00:08:16,913 --> 00:08:20,791
"Robotlar başka ne için kullanılabilir?
Bu iş nereye varıyor?"

86
00:08:20,875 --> 00:08:24,170
Ortak temalardan biri
daha fazla otonomi eğilimiydi.

87
00:08:26,506 --> 00:08:30,635
Otonom bir silah insan müdahalesi olmadan

88
00:08:30,718 --> 00:08:33,304
kendi başına karar veren bir silahtır.

89
00:08:33,387 --> 00:08:37,558
Yani bağımsız çalışıyor
ve kendi kendini yönetiyor.

90
00:08:38,434 --> 00:08:41,646
Öldürüp öldüremeyeceği
silahlı olup olmamasına bağlı.

91
00:08:43,314 --> 00:08:47,026
Tüm sisteminizde daha fazla
otonomiye sahip olduğunuzda

92
00:08:47,109 --> 00:08:49,779
her şey daha hızlı hareket etmeye başlar.

93
00:08:51,989 --> 00:08:56,869
Rakiplerinizden daha hızlı
hareket ettiğinizde

94
00:08:57,453 --> 00:09:01,290
muharebede büyük bir avantaj kazanırsınız.

95
00:09:03,960 --> 00:09:06,254
Otonomi konusunda odaklandığımız şey

96
00:09:07,255 --> 00:09:10,383
yüksek dirençli istihbarat sistemleri.

97
00:09:12,051 --> 00:09:15,304
Çevrelerine göre okuyan
ve tepki veren sistemler.

98
00:09:15,805 --> 00:09:19,642
O dünyada nasıl hareket edeceklerine
kendileri karar veriyor.

99
00:09:21,727 --> 00:09:24,981
SAN DIEGO
KALİFORNİYA

100
00:09:25,064 --> 00:09:29,151
Bugün içinde bulunduğumuz tesis
film stüdyosu olarak inşa edilmişti.

101
00:09:29,235 --> 00:09:34,156
Gerçekçi askerî eğitim ortamları
sağlamak için dönüştürüldü.

102
00:09:39,495 --> 00:09:43,291
Yapay zekâ pilotumuzu
değerlendirmek için buradayız.

103
00:09:44,625 --> 00:09:49,297
Görevi tehdit aramak,
temizlik birliğine destek vermek.

104
00:09:49,380 --> 00:09:52,675
Sorunla nasıl başa çıkacağına
kendisi karar verebilir.

105
00:09:55,428 --> 00:09:59,390
Buna "ölümcül huni" diyoruz.
Bu kapıdan geçmek zorundasın.

106
00:10:01,642 --> 00:10:03,311
En savunmasız olduğumuz yer.

107
00:10:03,811 --> 00:10:05,146
Bu daha iyi görünüyor.

108
00:10:07,106 --> 00:10:12,653
Nova bize kapının arkasında
saldırgan mı, aile mi var, bunu söyler.

109
00:10:15,114 --> 00:10:18,451
İyi kararlar vermemizi sağlar,
zarar vermemizi önler.

110
00:10:57,114 --> 00:11:03,162
Ortamın neye benzediğini anlamak için
kamera sensörleri kullanıyoruz.

111
00:11:04,997 --> 00:11:06,415
Çok katlı bir bina.

112
00:11:07,333 --> 00:11:11,671
Bu da haritası. Bunlar da
keşif yaparken gördüklerim ve konumları.

113
00:11:19,929 --> 00:11:22,098
Kişi dedektörü. Çok iyi.

114
00:11:23,891 --> 00:11:27,061
Nova'da ayrıca termal sensör var.

115
00:11:27,561 --> 00:11:30,690
37 dereceyse muhtemelen insandır.

116
00:11:32,358 --> 00:11:35,444
İnsanlar aksi kabul edilene kadar
tehdit sayılır.

117
00:11:38,906 --> 00:11:43,285
Daha iyi kararlar almak için
savaş sisini ortadan kaldırmakla ilgili.

118
00:11:44,704 --> 00:11:46,539
Geleceği düşünecek olursak

119
00:11:47,039 --> 00:11:50,793
otonom hava araçlarından oluşan
ekipler kurmaya çalışıyoruz.

120
00:11:53,754 --> 00:11:55,631
Kendi kendine giden araçlara

121
00:11:55,715 --> 00:11:59,802
"A noktasından
B noktasına gitmeni istiyorum" denirdi.

122
00:12:02,972 --> 00:12:06,475
Sistemlerimize A noktasından
B noktasına gitmeleri değil,

123
00:12:06,559 --> 00:12:08,477
bir amaca ulaşmaları söyleniyor.

124
00:12:10,312 --> 00:12:13,274
"Süte ihtiyacım var"a daha yakın bir şey.

125
00:12:13,774 --> 00:12:17,486
Robotun hangi markete gideceğine
karar vermesi,

126
00:12:17,570 --> 00:12:20,239
sütü alıp getirmesi gerekiyor.

127
00:12:20,740 --> 00:12:22,074
Daha da iyisi,

128
00:12:22,158 --> 00:12:27,413
"Buzdolabını dolu tut" demek
daha uygun düşebilir.

129
00:12:27,496 --> 00:12:29,457
Neye ihtiyacımız olduğunu,

130
00:12:29,540 --> 00:12:32,168
nasıl yaptığımızı anlayabilen bir zekâ.

131
00:12:32,251 --> 00:12:37,423
Bir zorluk çıkarsa, sorun olursa
bunu nasıl aşacağını bulabilen bir zekâ.

132
00:12:40,801 --> 00:12:47,725
Donanmadan ayrılmaya karar verdiğimde
"Sırada ne var?" diye düşünmeye başladım.

133
00:12:49,143 --> 00:12:52,021
İnternetle büyüdüm.
Neye dönüştüğünü gördüm.

134
00:12:53,189 --> 00:12:56,025
Şöyle bir sonuca vardım…

135
00:12:56,108 --> 00:12:58,861
2015'te yapay zekâ

136
00:12:58,944 --> 00:13:02,907
internetin 1991'de olduğu seviyelerdeydi.

137
00:13:04,033 --> 00:13:06,285
Yapay zekâ yükselişe geçip

138
00:13:06,368 --> 00:13:09,747
en güçlü teknolojilerden biri
olmaya hazırlanıyordu.

139
00:13:11,791 --> 00:13:16,212
Her gün onunla çalıştığımdan ne kadar
ilerleme kaydedildiğini görebiliyorum.

140
00:13:19,089 --> 00:13:22,468
Ama "yapay zekâ" deyince
birçok kişinin aklı

141
00:13:22,551 --> 00:13:25,221
hemen Hollywood'a gidiyor.

142
00:13:26,639 --> 00:13:28,474
SAVAŞ OPERASYON PLANI TEPKİSİ

143
00:13:28,557 --> 00:13:29,975
Oyun oynayalım mı?

144
00:13:30,059 --> 00:13:35,314
Küresel Termonükleer Savaş'a ne dersin?

145
00:13:35,898 --> 00:13:36,816
Peki.

146
00:13:38,275 --> 00:13:44,824
"Yapay zekâ" dediğinizde
Terminatör'ü ya da Ben Robot'u düşünürler.

147
00:13:45,574 --> 00:13:46,700
Devre dışı bırak.

148
00:13:46,784 --> 00:13:48,160
Neyim ben?

149
00:13:48,244 --> 00:13:49,620
Ya da Matrix'i.

150
00:13:51,080 --> 00:13:55,751
Bilim kurgu filmlerine bakılırsa
insan olduğumu nereden biliyorsunuz?

151
00:13:55,835 --> 00:13:57,878
Yapay zekâ olabilirim.

152
00:13:58,379 --> 00:14:02,174
Kopyalar da diğer makineler gibidir.
Faydalı ya da zararlı.

153
00:14:02,675 --> 00:14:07,388
Ama düşünen, konuşan robot aşamasına
gelmeden çok önce

154
00:14:07,471 --> 00:14:11,851
hayatlarımızı değiştirecek
bir sürü ilkel yapay zekâ var.

155
00:14:13,143 --> 00:14:15,771
Robotlar geldi bile. Karar veriyorlar.

156
00:14:15,855 --> 00:14:18,816
Robot devrimi başladı.

157
00:14:18,899 --> 00:14:22,319
Ama hiçbirimizin
hayal ettiği gibi görünmüyor.

158
00:14:23,320 --> 00:14:26,740
Terminatör bir sızma birimi.
Yarı insan, yarı makine.

159
00:14:27,950 --> 00:14:31,787
Terminatör tarzında bir
katil robottan bahsetmiyoruz.

160
00:14:31,871 --> 00:14:35,958
İnsanların yapabileceği işleri yapabilen
yapay zekâdan bahsediyoruz.

161
00:14:36,041 --> 00:14:39,879
Ama asıl mesele
bu sistemlerin güvenilir olup olmadığı.

162
00:14:40,462 --> 00:14:45,426
Otonom sürüşlü Uber aracının karıştığı
ölümlü kazada yeni detaylar.

163
00:14:45,509 --> 00:14:48,762
Şirket bir yapay zekâ
sohbet robotu yarattı.

164
00:14:48,846 --> 00:14:51,181
Irkçı bir tavır takındı…

165
00:14:51,265 --> 00:14:55,394
26 eyalet yöneticisi
suçlu olarak tanımlandı.

166
00:14:57,438 --> 00:15:02,026
Asıl soru, gerçek dünyanın karmaşıklığıyla
başa çıkıp çıkamayacakları.

167
00:15:22,212 --> 00:15:24,006
Fiziksel dünya çok karmaşık.

168
00:15:25,174 --> 00:15:30,763
Bilmediklerimiz yapay zekâ sistemlerini
eğitmeyi zorlaştırıyor.

169
00:15:33,098 --> 00:15:36,977
Makine öğrenmesi sistemleri
bu noktada devreye girmeye başladı.

170
00:15:38,520 --> 00:15:41,440
Makine öğrenmesi büyük bir ilerleme oldu

171
00:15:42,024 --> 00:15:45,611
çünkü bilgisayarlara
her şeyi öğretmek zorunda değiliz.

172
00:15:47,905 --> 00:15:52,409
Bilgisayara milyonlarca
bilgi veriyorsunuz.

173
00:15:52,493 --> 00:15:54,578
Makine, öğrenmeye başlıyor.

174
00:15:55,746 --> 00:15:57,289
Bu her şeye uyarlanabilir.

175
00:16:00,250 --> 00:16:02,002
Robot Köpek projemizde

176
00:16:02,086 --> 00:16:09,009
köpeğimizin birçok farklı arazide
yürüyebildiğini göstermeye çalışıyoruz.

177
00:16:10,052 --> 00:16:14,264
İnsanlar milyarlarca yıl boyunca
yürümek için evrimleşmiştir.

178
00:16:14,932 --> 00:16:20,688
Bu farklı yüzeylere uyum
büyük bir zekâyla mümkündür.

179
00:16:21,939 --> 00:16:27,069
Acaba robotik sistemler de hayvanlar
ve insanlar gibi uyum sağlayabilir mi?

180
00:16:35,953 --> 00:16:40,582
Makine öğrenmesi sayesinde
simülasyonda pek çok veri topluyoruz.

181
00:16:42,668 --> 00:16:45,838
Simülasyon, gerçekliğin dijital ikizi.

182
00:16:46,588 --> 00:16:52,052
Bu gerçekliğin birçok örneğini
farklı bilgisayarlarda çalıştırabiliriz.

183
00:16:53,178 --> 00:16:57,141
Simülasyonda binlerce eylemi örnekliyor.

184
00:16:58,892 --> 00:17:02,229
Karşılaştıkları zeminlerin
kayganlıkları farklı.

185
00:17:02,312 --> 00:17:03,939
Sertlikleri farklı.

186
00:17:04,898 --> 00:17:08,318
Binlerce robotun
simülasyondaki tüm deneyimlerini alıp

187
00:17:08,402 --> 00:17:13,282
gerçek bir robot sistemine yüklüyoruz.

188
00:17:15,492 --> 00:17:20,039
Bugün yapacağımız test
yeni zemine uyum becerisini görmek için.

189
00:17:53,322 --> 00:17:55,491
Köpüğün üzerinden geçerken

190
00:17:55,574 --> 00:17:58,577
ayaklarını yere güçlü basıyordu.

191
00:17:59,369 --> 00:18:02,206
PVC yüzeye geldiğinde

192
00:18:03,248 --> 00:18:06,460
kaymamak için
hareketlerini ayarlamaya çalıştı.

193
00:18:08,670 --> 00:18:14,051
Bunu makine öğrenmesi sayesinde yapması
bize çok çarpıcı geliyor.

194
00:18:41,161 --> 00:18:46,542
Robot Köpek'in birçok farklı türde arazide
gezinmeniz gereken afet senaryolarında

195
00:18:46,625 --> 00:18:49,837
çok yardımcı olabileceğini düşünüyoruz.

196
00:18:52,631 --> 00:18:57,427
Ya da bu köpekleri zorlu ortamlarda
gözetleme görevine gönderebiliriz.

197
00:19:15,696 --> 00:19:19,575
Ama çoğu teknoloji
bir zorlukla karşılaşıyor.

198
00:19:19,658 --> 00:19:22,369
İyi bir şey de yapabilirsiniz,
kötü bir şey de.

199
00:19:24,079 --> 00:19:27,875
Nükleer teknolojiyi
enerji için de kullanabiliriz,

200
00:19:30,419 --> 00:19:33,797
atom bombası geliştirmek için de.

201
00:19:35,090 --> 00:19:38,468
İki yönlü kullanım sorunu budur.

202
00:19:39,052 --> 00:19:40,929
Ateş iki yönlüdür.

203
00:19:41,722 --> 00:19:44,308
İnsan zekâsı iki yönlüdür.

204
00:19:44,391 --> 00:19:48,645
Söylemeye gerek yok,
yapay zekâ da iki yönlüdür.

205
00:19:49,354 --> 00:19:53,984
Kullanılan yapay zekâyı
bağlamda düşünmek çok önemli.

206
00:19:54,693 --> 00:19:59,114
Bir arama kurtarma robotuna
sahip olmak harika.

207
00:19:59,198 --> 00:20:02,284
Çığdan sonra
birinin yerini saptayabiliriz.

208
00:20:02,868 --> 00:20:05,871
Ama aynı robot silaha da dönüştürülebilir.

209
00:20:15,088 --> 00:20:21,094
Üstüne silah takmak için
robot kullanan şirketleri görünce

210
00:20:21,178 --> 00:20:22,930
bir parçan çılgına dönüyor.

211
00:20:23,931 --> 00:20:30,103
Teknolojimizi ortaya koyduğumuzda
bunun olacağının farkına varıyoruz.

212
00:20:31,021 --> 00:20:34,441
Bu gerçek bir dönüşüm teknolojisi.

213
00:20:36,235 --> 00:20:38,570
Bunlar güvenliğimizi

214
00:20:38,654 --> 00:20:43,617
büyük ölçüde artırabilecek
silah sistemleri.

215
00:20:46,161 --> 00:20:51,500
Şu an için makinelerin
sivillerle savaşçıları

216
00:20:51,583 --> 00:20:54,962
ayırt edebileceğinden emin değiliz.

217
00:21:01,885 --> 00:21:05,639
Afganistan'da sınırdan geçen
düşman savaşçıları arayan bir

218
00:21:05,722 --> 00:21:08,016
keskin nişancı birliğinde görevliydim.

219
00:21:09,643 --> 00:21:12,562
Yerimizi bildirsin diye
küçük bir kız gönderdiler.

220
00:21:13,939 --> 00:21:17,067
O küçük kızı vurma fikri
aklımızdan bile geçmedi.

221
00:21:19,695 --> 00:21:22,864
Savaş kanunlarına göre bu yasal olurdu.

222
00:21:24,992 --> 00:21:27,369
Düşman savaşçılar için yaş sınırı yok.

223
00:21:29,079 --> 00:21:33,417
Savaş kanunlarına
harfi harfine uyan bir robot yapsaydınız

224
00:21:33,500 --> 00:21:35,252
o küçük kızı vururdu.

225
00:21:36,420 --> 00:21:41,091
Bir robot yasal olanla
doğru olanın ayrımını nasıl yapacak?

226
00:21:43,385 --> 00:21:47,639
Otonom dron savaşını planlarken
Amerikan askerlerine,

227
00:21:47,723 --> 00:21:53,353
Amerikan psikolojisine verdiği hasarı
ortadan kaldırmaya çalışıyorlar

228
00:21:53,437 --> 00:21:58,775
ama Afgan, Iraklı ve Somalili siviller
daha çok zarar görüyor.

229
00:22:09,619 --> 00:22:14,416
Dronlarda yapay zekâya güvenmeyi
destekleyenlere şunu sormak isterim,

230
00:22:15,375 --> 00:22:18,211
"Ya saldırıya uğrayan
sizin köyünüz olsaydı?"

231
00:22:23,550 --> 00:22:25,886
Yapay zekâ iki ucu keskin bir bıçak.

232
00:22:26,595 --> 00:22:30,724
İyilik için kullanılabilir,
ki normalde bunun için kullanırız,

233
00:22:31,558 --> 00:22:33,477
ama bir düğmeyi çevirince

234
00:22:34,561 --> 00:22:38,023
ölümcül bir teknolojiye dönüşebilir.

235
00:22:38,106 --> 00:22:39,900
RALEIGH
KUZEY KAROLAYNA

236
00:22:47,032 --> 00:22:48,533
Klinik farmakoloğum.

237
00:22:49,618 --> 00:22:54,247
İlgi görmeyen hastalıkları
tedavi edecek ilaçları bulmak için

238
00:22:54,331 --> 00:22:57,751
yapay zekâ kullanan bir ekibim var.

239
00:22:59,711 --> 00:23:04,132
İlaç keşiflerinde,
eskiden var olan bir molekülü ele alıp

240
00:23:04,216 --> 00:23:06,885
onun üzerinde çalışarak
yeni ilaç yapardınız.

241
00:23:08,261 --> 00:23:13,350
Şimdi milyonlarca fikir bulan bir
yapay zekâ geliştirdik.

242
00:23:13,892 --> 00:23:15,227
Milyonlarca molekül.

243
00:23:16,186 --> 00:23:22,567
Daha önce tedavi edemediğimiz hastalıkları
tedavi etmek için pek çok olasılık doğdu.

244
00:23:25,153 --> 00:23:29,783
Ama başvuracağımı
asla düşünmediğim bir karanlık taraf var.

245
00:23:33,161 --> 00:23:38,083
Her şey İsviçre'den
Spiez Laboratuvarı adındaki bir kurumun

246
00:23:38,166 --> 00:23:41,545
beni yapay zekânın
kötüye kullanımıyla ilgili bir

247
00:23:41,628 --> 00:23:44,423
sunum yapmaya davet etmesiyle başladı.

248
00:23:48,343 --> 00:23:52,597
Sean kendi yapay zekâmızı
kötüye kullanabileceğimiz

249
00:23:52,681 --> 00:23:55,308
birkaç fikir içeren bir e-posta gönderdi.

250
00:23:56,059 --> 00:24:02,274
Modelimize hastalıkları tedavi etmek için
ilaç benzeri moleküller üretmesi yerine

251
00:24:02,774 --> 00:24:06,403
en zehirli molekülü
üretebilecek mi diye sorabilirdik.

252
00:24:10,198 --> 00:24:15,620
Ölümcül moleküller tasarlamak için
yapay zekâ teknolojisi kullanabilir miyiz?

253
00:24:17,414 --> 00:24:20,834
Dürüst olmak gerekirse
başarısız olacağını düşündük

254
00:24:20,917 --> 00:24:24,504
çünkü tek yaptığımız
sıfırı bire çevirmekti.

255
00:24:25,380 --> 00:24:26,631
VERİ, 1

256
00:24:26,715 --> 00:24:30,385
Bunu tersine çevirerek
zehirlilikten uzaklaşmak yerine

257
00:24:30,469 --> 00:24:33,555
zehirliliğe doğru ilerliyorduk, o kadar.

258
00:24:37,517 --> 00:24:41,021
Ben evdeyken bilgisayar bu işi yapıyordu.

259
00:24:41,521 --> 00:24:44,816
Binlerce molekül yaratarak çalışıyordu.

260
00:24:45,650 --> 00:24:49,905
"Başlat" dedikten sonra
başka hiçbir şey yapmamız gerekmiyordu.

261
00:24:54,493 --> 00:24:58,580
Ertesi sabah
bilgisayarımda bir dosya vardı.

262
00:24:59,080 --> 00:25:03,376
İçinde aşağı yukarı 40.000 molekül vardı.

263
00:25:03,460 --> 00:25:08,882
Bunlar belki de insanoğlunun bildiği
en zehirli moleküllerdi.

264
00:25:10,217 --> 00:25:12,761
Ensemdeki tüyler diken diken oldu.

265
00:25:13,386 --> 00:25:14,554
Çok şaşkındım.

266
00:25:15,388 --> 00:25:20,977
Bilgisayar yeni kimyasal silahlar için
on binlerce fikir üretmişti.

267
00:25:21,645 --> 00:25:27,609
Elbette veri setinde
VX ve VX'e benzeyen moleküller var.

268
00:25:28,360 --> 00:25:31,363
VX dünyadaki en güçlü
kimyasal silahlardan biri.

269
00:25:31,863 --> 00:25:33,573
Emniyetin yeni iddiasına göre

270
00:25:33,657 --> 00:25:37,786
bu havalimanı suikastında
Kim Jong-nam'a saldıran kadınlar

271
00:25:37,869 --> 00:25:41,248
VX adında ölümcül bir
sinir gazı kullanıyordu.

272
00:25:41,748 --> 00:25:44,417
Boğularak ölüme neden olabilir.

273
00:25:45,043 --> 00:25:47,629
Bu çok güçlü bir molekül.

274
00:25:47,712 --> 00:25:52,092
Bu moleküllerin çoğunun VX'ten
daha ölümcül olduğu tahmin ediliyordu.

275
00:25:53,301 --> 00:25:56,972
Bildiğimiz kadarıyla
çoğu daha önce hiç görülmedi.

276
00:25:57,472 --> 00:26:02,310
Sean'la bunu fark edince
"Ne yaptık biz?" olduk.

277
00:26:04,771 --> 00:26:09,401
Pandora'nın kutusunu
açtığımızı fark ettim.

278
00:26:09,901 --> 00:26:13,280
"Dur. Başka bir şey yapma. Sondu" dedim.

279
00:26:13,905 --> 00:26:17,158
"Bana sunum için gereken
slaytları hazırla sadece."

280
00:26:19,202 --> 00:26:23,873
Bu deneyi yaptığımızda, "Olabilecek
en kötü şey nedir?" diye düşünüyordum.

281
00:26:26,251 --> 00:26:30,255
Ama şimdi, "Bunu yaparken
çok safmışız" diye düşünüyorum.

282
00:26:33,466 --> 00:26:36,928
Beni en çok korkutan şu,
yaptığımız şeyi herkes yapabilir.

283
00:26:38,930 --> 00:26:40,765
Bir düğmeyi çevirmek yeterli.

284
00:26:42,934 --> 00:26:46,187
Bu teknoloji tamamen yıkıcı bir şey için

285
00:26:46,271 --> 00:26:50,942
kullanılmadan önce nasıl kontrol edilir?

286
00:26:55,780 --> 00:26:58,908
Yapay zekâ ve onu toplumda

287
00:26:58,992 --> 00:27:03,538
nasıl kullanacağımız gibi
tartışmaların merkezinde,

288
00:27:04,289 --> 00:27:08,043
sayesinde teknoloji geliştirdiğimiz güç

289
00:27:08,126 --> 00:27:11,379
ve onun yönetmek için
kullanmamız gereken bilgelik var.

290
00:27:13,340 --> 00:27:17,927
Akıllı telefonlarımızı çalıştıranla
prensipte aynı olan bir şeye

291
00:27:18,011 --> 00:27:23,433
can alma yetkisi verilmesinin
ahlaki ve etik sonuçları var.

292
00:27:25,727 --> 00:27:31,608
Yaşamın Geleceği Enstitüsü'nde
aktivist bilim insanlarıyla çalışıyorum.

293
00:27:31,691 --> 00:27:34,736
Otomasyonu hızlandırmanın ve artırmanın

294
00:27:34,819 --> 00:27:38,698
bir diğer yüzü olduğunu
göstermeye çalışıyoruz.

295
00:27:38,782 --> 00:27:42,619
Yarattığımız teknolojilerin
güvenli ve etik kullanıldığından

296
00:27:42,702 --> 00:27:45,038
emin olmaya çalışıyoruz.

297
00:27:46,247 --> 00:27:49,959
Silah sistemlerimizde
yapay zekânın kullanımıyla ilgili

298
00:27:50,043 --> 00:27:54,089
angajman kurallarını,
ahlak kurallarını konuşalım.

299
00:27:54,673 --> 00:27:57,967
Çünkü artık otonom olarak
öldürmek için kullanılabilecek,

300
00:27:58,051 --> 00:28:01,680
muharebe alanına girecek
teknolojileri görüyoruz.

301
00:28:10,230 --> 00:28:15,110
Birleşmiş Milletler,
Libya'daki muharebe alanında ölümcül bir

302
00:28:15,193 --> 00:28:19,572
otonom silahın olası kullanımı hakkında
bir rapor yayınladı.

303
00:28:20,073 --> 00:28:24,160
Birleşmiş Milletler'e göre geçen yıl
Libya iç savaşında uçan bir dron

304
00:28:24,244 --> 00:28:27,330
hedeflere otonom olarak
saldırmak üzere programlandı.

305
00:28:28,289 --> 00:28:31,209
Birleşmiş Milletler raporu doğruysa bu,

306
00:28:31,292 --> 00:28:34,963
insanlık için bir dönüm noktası olur.

307
00:28:35,046 --> 00:28:38,383
Çünkü yapay zekânın
sadece bir insanın değil,

308
00:28:38,466 --> 00:28:42,137
bir canlının canını almaya
karar verdiği bir örnek.

309
00:28:49,686 --> 00:28:51,688
Dünyanın çeşitli yerlerinde

310
00:28:51,771 --> 00:28:55,150
teknolojik otonom silahlar
kullanıldığını görüyorsunuz.

311
00:28:56,276 --> 00:28:58,278
İsrail'den gelen haberler var.

312
00:29:00,280 --> 00:29:05,702
Azerbaycan, Ermenistan hava savunmasını
otonom sistemler kullanarak vurdu.

313
00:29:07,370 --> 00:29:09,998
Kendi başına
muharebe alanında saatlerce uçup

314
00:29:10,081 --> 00:29:12,500
vuracak hedefler arayabilir

315
00:29:12,584 --> 00:29:16,087
ve insan müdahalesi olmadan
onlara saldırabilir.

316
00:29:16,796 --> 00:29:18,298
Son zamanlarda

317
00:29:18,381 --> 00:29:21,760
Ukrayna'da çekilmiş
çeşitli videolar gördük.

318
00:29:23,303 --> 00:29:26,890
Çalıştıkları sırada
hangi modda oldukları belli değil.

319
00:29:26,973 --> 00:29:30,101
Saldırılacak hedeflere
bir insan mı karar veriyordu

320
00:29:30,185 --> 00:29:32,729
yoksa makine bunu
kendi başına mı yapıyordu?

321
00:29:32,812 --> 00:29:38,401
Libya'da, Ukrayna'da, başka bir yerde
çoktan yaşanmış da olabilir

322
00:29:38,485 --> 00:29:40,195
ama bir an gelecek,

323
00:29:40,278 --> 00:29:44,449
bir makine, muharebe alanında
kimi öldüreceğine kendisi karar verecek.

324
00:29:47,035 --> 00:29:50,997
İnsan müdahalesi olmadan insanlara karşı

325
00:29:51,080 --> 00:29:53,374
ölümcül güç kullanan makineler

326
00:29:53,458 --> 00:29:57,337
politik olarak kabul edilemez
ve ahlaki açıdan iğrenç.

327
00:29:59,214 --> 00:30:05,011
Uluslararası toplumun bu zorlukları
yönetmeye yetip yetmeyeceği

328
00:30:05,094 --> 00:30:06,888
büyük bir soru işareti.

329
00:30:06,971 --> 00:30:08,848
SAVAŞ ETİĞİ

330
00:30:08,932 --> 00:30:12,685
Sadece birkaç yıl geleceğe baksak bile

331
00:30:12,769 --> 00:30:16,064
manzara çok korkutucu görünüyor.

332
00:30:16,564 --> 00:30:21,653
Yapay zekâyı daha güçlü hâle getirmek,
onu farklı alanlarda kullanmak için

333
00:30:21,736 --> 00:30:26,950
olağanüstü miktarda sermaye
ve insan kaynağı yatırımı yapılıyor.

334
00:30:39,254 --> 00:30:41,214
Sen var ya…

335
00:30:42,257 --> 00:30:43,758
Kazanamayacağını biliyor.

336
00:30:46,761 --> 00:30:49,514
Yapay zekânın
farklı sorunları aştığını görmek

337
00:30:49,597 --> 00:30:51,099
bana ilham veriyor.

338
00:30:51,683 --> 00:30:53,977
Ne varsa yolluyorum.

339
00:30:54,477 --> 00:30:59,524
Aynı taktikleri, teknikleri, prosedürleri
gerçek uçaklara da uygulayabilirsiniz.

340
00:31:01,401 --> 00:31:02,318
İyi oyundu.

341
00:31:02,402 --> 00:31:03,820
İyi bir oyun oldu.

342
00:31:08,658 --> 00:31:14,122
Yapay zekânın yapamadığı şeylerle ilgili
açıklamalara devam edilmesi şaşırtıcı.

343
00:31:14,205 --> 00:31:17,166
"Dünya şampiyonunu
satrançta asla yenemez."

344
00:31:20,211 --> 00:31:25,925
IBM bilgisayarı dünya satranç şampiyonu
Garry Kasparov'la ikinci maçını kazandı.

345
00:31:28,136 --> 00:31:30,847
Kasparov bırakıyor!

346
00:31:31,598 --> 00:31:36,060
Anlayamadığım bir şey görürsem korkarım.

347
00:31:36,144 --> 00:31:38,062
Hiç anlayamadığım bir şeydi.

348
00:31:39,355 --> 00:31:41,107
Sonra da şöyle diyecekler,

349
00:31:41,190 --> 00:31:44,402
"Go oyununda bir
dünya şampiyonunu asla yenemez."

350
00:31:44,485 --> 00:31:50,700
İnsan sezgisinin yapay zekâ için
hâlâ çok gelişmiş olduğuna inanıyorum.

351
00:31:50,783 --> 00:31:52,827
Bize yetişmesine çok var.

352
00:31:55,330 --> 00:31:58,416
Go bir insanın öğrenebileceği
en karmaşık oyunlardan.

353
00:31:58,499 --> 00:32:02,211
Çünkü hesapladığınızda
tahtadaki hamle sayısı

354
00:32:02,295 --> 00:32:05,256
tüm evrendeki atom sayısından fazla.

355
00:32:06,716 --> 00:32:09,135
Google'da DeepMind adında bir ekip vardı.

356
00:32:09,218 --> 00:32:14,265
Dünyanın en iyi oyuncularını yenmek için
AlphaGo adında bir program yazdılar.

357
00:32:16,559 --> 00:32:19,437
-Tebrik ediyoruz…
-AlphaGo'yu.

358
00:32:19,520 --> 00:32:22,774
Bir bilgisayar programı
dokuzuncu dan bir ustayı yendi.

359
00:32:25,610 --> 00:32:31,532
DeepMind bir sonraki yapay zekâ
görevi olarak StarCraft'ı seçti.

360
00:32:33,743 --> 00:32:38,081
StarCraft tüm zamanların en popüler
gerçek zamanlı strateji oyunu.

361
00:32:40,333 --> 00:32:44,712
AlphaStar dünya şampiyonlarını
yenmeye başladığında meşhur oldu.

362
00:32:45,338 --> 00:32:48,800
AlphaStar, Immortal Arc'ı ezip geçiyor.

363
00:32:48,883 --> 00:32:52,553
Bu, profesyonellerin kazanabileceği
bir savaş olmayacak.

364
00:32:53,680 --> 00:32:55,098
Olur şey değil!

365
00:32:57,642 --> 00:33:00,895
Profesyonel oyuncular,
"Bu taktiği asla denemem" derdi.

366
00:33:00,979 --> 00:33:04,816
"Bu stratejiyi asla denemem.
Bu insan olmayan bir şey."

367
00:33:07,151 --> 00:33:10,655
Bir şeylerin farkına vardığım an oydu.

368
00:33:13,574 --> 00:33:16,911
Zamanın geldiğini anladım.

369
00:33:17,412 --> 00:33:21,082
Önemli bir teknoloji.
Fark yaratmak için bir fırsat var.

370
00:33:24,502 --> 00:33:29,382
Bir komando olarak yakın muharebede
karşılaştığım sorunları biliyordum.

371
00:33:30,383 --> 00:33:34,470
F-18 pilotu olan yakın bir arkadaşım
bana şöyle dedi,

372
00:33:34,554 --> 00:33:37,724
"Aynı sorun savaş jeti camiasında da var.

373
00:33:37,807 --> 00:33:39,434
İletişimi bozuyorlar.

374
00:33:39,517 --> 00:33:44,439
Çalışması çok tehlikeli olan,
karadan havaya füzeyle dolu sahalar var."

375
00:33:47,483 --> 00:33:50,987
Diyelim, yapay zekânın
komuta ettiği bir savaş uçağımız var.

376
00:33:51,070 --> 00:33:56,159
AlphaDogfight denemelerine hoş geldiniz.
İlk yarı finale birkaç dakika kaldı.

377
00:33:56,242 --> 00:33:59,871
Savunma İleri Araştırma Projeleri Ajansı

378
00:33:59,954 --> 00:34:03,624
yani DARPA, AlphaGo ve AlphaStar'ı izledi.

379
00:34:04,292 --> 00:34:08,171
AlphaDogfight yarışması fikri böyle doğru.

380
00:34:09,005 --> 00:34:11,466
Savaş pilotları bunu yapsın istersin.

381
00:34:11,549 --> 00:34:13,593
İnsan it dalaşına benziyor.

382
00:34:15,595 --> 00:34:19,057
İt dalaşı savaş uçaklarının mücadelesidir.

383
00:34:19,849 --> 00:34:22,852
Gökyüzündeki bir
boks maçı gibi düşünebilirsiniz.

384
00:34:23,853 --> 00:34:26,314
Top Gun filmini izlemişsinizdir belki.

385
00:34:26,397 --> 00:34:27,815
Atlatabilir miyiz?

386
00:34:28,691 --> 00:34:31,277
-Füzelerini, silahlarını değil.
-İt dalaşı.

387
00:34:35,531 --> 00:34:39,410
İt dalaşında ustalaşmak
sekiz ila on yıl alır.

388
00:34:42,288 --> 00:34:46,209
Yapay zekâyı inşa etmek
son derece karmaşık bir görev.

389
00:34:54,092 --> 00:34:59,138
Otonomiye ve it dalaşına yönelik
önceki yaklaşımlar kırılgandı.

390
00:34:59,222 --> 00:35:03,017
Bu sorunu çözmenin yolunun
makine öğrenmesi olduğunu anladık.

391
00:35:04,477 --> 00:35:08,189
Yapay zekâ, içine atıldığı dünya hakkında
hiçbir şey bilmiyordu.

392
00:35:08,272 --> 00:35:11,025
Uçtuğunu, it dalaşının
ne olduğunu bilmiyordu.

393
00:35:11,109 --> 00:35:13,152
F-16'nın ne olduğunu da.

394
00:35:13,236 --> 00:35:15,905
Bildiği tek şey ne yapabileceğiydi.

395
00:35:15,988 --> 00:35:18,407
Onları rastgele keşfetmeye başladı.

396
00:35:19,325 --> 00:35:23,204
Mavi uçak kısa bir süredir eğitim görüyor.

397
00:35:23,287 --> 00:35:25,832
Sağa sola sallandığını görüyorsunuz.

398
00:35:26,624 --> 00:35:30,545
Çok kararsızca uçarak
rakibinden uzaklaştığını görebilirsiniz.

399
00:35:31,587 --> 00:35:36,134
İt dalaşı ilerledikçe mavinin
oyun planını oluşturduğunu görebiliyoruz.

400
00:35:36,676 --> 00:35:38,636
Daha çok atış pozisyonu buluyor.

401
00:35:39,178 --> 00:35:43,891
Öğrenme algoritması arada bir,
"Al sana kurabiye. Bu iyi. Devam et" dedi.

402
00:35:45,143 --> 00:35:50,064
Bilgisayar gücünden faydalanıp unsurları
paralel olarak birçok kez eğitebiliriz.

403
00:35:51,357 --> 00:35:52,775
Basketbol takımı gibi.

404
00:35:53,276 --> 00:35:55,778
Aynı takımla tekrar tekrar oynamak yerine

405
00:35:55,862 --> 00:36:00,950
aynı anda 512 farklı takımla
dünyayı dolaşıyoruz.

406
00:36:01,492 --> 00:36:03,661
Kısa sürede çok iyi olabilirsiniz.

407
00:36:04,162 --> 00:36:07,456
O simülasyonu 7 gün 24 saat çalıştırarak

408
00:36:07,540 --> 00:36:11,919
30 yıllık pilotluk eğitimini
10 ayda aldık.

409
00:36:12,879 --> 00:36:15,673
Uçağı zar zor kontrol edebiliyorken

410
00:36:15,756 --> 00:36:17,717
bir suikastçıya dönüştük.

411
00:36:19,010 --> 00:36:23,264
Eğitimde sadece
diğer yapay zekâlarla yarışıyorduk.

412
00:36:24,473 --> 00:36:28,561
Ama doğrudan
insanlarla yarışmak nihai hedefti.

413
00:36:34,192 --> 00:36:35,610
Adım Mike Benitez.

414
00:36:36,110 --> 00:36:38,362
Amerikan Hava Kuvvetleri'nde yarbayım.

415
00:36:39,155 --> 00:36:41,157
25 yıldır aktif görevdeyim.

416
00:36:42,825 --> 00:36:44,869
250 muharebe sortisi yaptım.

417
00:36:45,578 --> 00:36:49,832
Silah okulu mezunuyum.
Top Gun'ın Hava Kuvvetleri versiyonu.

418
00:36:52,627 --> 00:36:55,171
Hiç yapay zekâya karşı uçmadım.

419
00:36:55,254 --> 00:36:58,966
Neler yapabileceğimi
görmek için heyecanlıyım.

420
00:36:59,634 --> 00:37:03,054
6.000 fitte burun buruna başlayacak.

421
00:37:04,388 --> 00:37:05,223
İt dalaşı.

422
00:37:13,314 --> 00:37:14,148
Gitti.

423
00:37:14,732 --> 00:37:16,651
Evet, bu gerçekten ilginç.

424
00:37:20,780 --> 00:37:23,658
-Öldü.
-Hakladım. Kusursuz zafer.

425
00:37:25,910 --> 00:37:27,453
Tamam, ikinci raunt.

426
00:37:35,461 --> 00:37:39,590
Yapay zekâ o kadar hassas bir şekilde

427
00:37:39,674 --> 00:37:43,219
manevra yapıyor ki yetişemiyorum.

428
00:37:48,474 --> 00:37:49,725
Birleşmek üzere.

429
00:37:50,309 --> 00:37:51,894
Şimdi gittin.

430
00:37:53,145 --> 00:37:53,980
Hakladım!

431
00:37:54,063 --> 00:37:55,022
Beni yine vurdu.

432
00:37:58,567 --> 00:38:00,236
Yapay zeka asla korkmaz.

433
00:38:00,736 --> 00:38:03,781
Kokpitteki yapay zekâ
insan gibi duygusal değil.

434
00:38:04,991 --> 00:38:08,244
Yapay zekânın geliştirdiği
en ilginç stratejilerden biri

435
00:38:08,327 --> 00:38:10,121
karşıdan atış dediğimiz şeydi.

436
00:38:10,621 --> 00:38:14,000
İnsan pilot arkadan ateş etmek ister

437
00:38:14,083 --> 00:38:16,377
çünkü seni atlatması zordur.

438
00:38:17,044 --> 00:38:20,381
Karşıdan ateş etmeyi denemezsin
çünkü cesaret oyunudur.

439
00:38:21,424 --> 00:38:27,096
3.000 fitten 500 fite kadarki karşılaşma
göz açıp kapayıncaya kadar biter.

440
00:38:27,596 --> 00:38:31,183
Çarpışma riski yüksektir.
İnsanlar denemez.

441
00:38:32,893 --> 00:38:35,938
Ona aksi söylenmedikçe
yapay zekâ ölümden korkmaz.

442
00:38:37,857 --> 00:38:40,234
Bir insanla savaşıyor gibiyim.

443
00:38:40,776 --> 00:38:44,113
Ama güvenlik konusunda
pervasız bir insanla.

444
00:38:45,489 --> 00:38:47,325
Sonuncuyu atlatamayacak.

445
00:38:57,168 --> 00:38:58,461
Yeterince vakti yok.

446
00:39:01,964 --> 00:39:02,965
İyi geceler.

447
00:39:04,091 --> 00:39:04,925
Öldüm.

448
00:39:16,812 --> 00:39:19,899
Bu görev için en iyi şey olmayabileceğimi,

449
00:39:19,982 --> 00:39:24,320
bunun bir gün benim yerime
geçebileceğini bilmek tevazunu artırıyor.

450
00:39:25,696 --> 00:39:26,906
Aynı 6 CAV.

451
00:39:27,615 --> 00:39:28,824
Mesafe 1.000.

452
00:39:29,450 --> 00:39:32,078
Yapay zekâ pilotu savaş uçağına çok hâkim.

453
00:39:32,828 --> 00:39:34,830
Kazanması kaçınılmaz.

454
00:39:34,914 --> 00:39:37,249
Açık ara kazanmanın da ötesinde.

455
00:39:37,333 --> 00:39:41,545
"Onu uçağımıza nasıl takabiliriz?"
dedirtecek kadar güçlü.

456
00:39:43,672 --> 00:39:47,802
Yapay zekânın
F-16 uçurmasını beklemek gerçekçi.

457
00:39:47,885 --> 00:39:50,596
O kadar da uzak değil.

458
00:39:51,305 --> 00:39:56,769
Yüzde 99,999999 kazanma oranı olan bir
yapay zekâ pilotuyla karşılaşırsan

459
00:39:56,852 --> 00:39:58,062
hiç şansın yok.

460
00:39:59,605 --> 00:40:03,442
Bir yapay zekâ pilotunu yenilmez bulurken

461
00:40:03,526 --> 00:40:06,779
50 ya da 100 uçaklık bir filoyu
tahayyül ediyorum.

462
00:40:07,279 --> 00:40:12,535
Veya 1.000 yapay zekâ pilotunun
başaracaklarını düşünün.

463
00:40:13,702 --> 00:40:19,208
Sürü, birbiriyle çalışan son derece
zeki uçaklardan oluşan bir filo.

464
00:40:19,291 --> 00:40:23,629
Sorunu nasıl çözecekleri konusunda
birbirleriyle bilgi paylaşıyorlar.

465
00:40:25,172 --> 00:40:28,467
Sürü, ordumuz ve müttefiklerimiz için

466
00:40:28,551 --> 00:40:32,638
ezber bozan,
dönüştürücü bir beceri olacak.

467
00:41:42,750 --> 00:41:47,379
Hedef tespit edildi.
Dronlar onu takip ediyor.

468
00:42:01,977 --> 00:42:03,479
İnişe geçiyor.

469
00:42:07,566 --> 00:42:10,402
Sürü araştırmasında öncelikli hedefimiz

470
00:42:11,153 --> 00:42:17,910
ulaşılması zor ya da tehlikeli bir bölgeye
çok sayıda dron konuşlandırmak.

471
00:42:21,705 --> 00:42:26,085
Ordu Araştırma Laboratuvarı
bu araştırma projesini destekliyor.

472
00:42:26,919 --> 00:42:29,463
Bir yerde ne olduğunu bilmek istiyorsan

473
00:42:29,547 --> 00:42:33,175
ama o bölgeye ulaşmak zorsa
ya da çok geniş bir alansa

474
00:42:33,676 --> 00:42:38,389
sürü konuşlandırmak
insanların erişimini artırmak,

475
00:42:38,472 --> 00:42:41,934
görev için kritik olan bilgileri
toplamak için doğal yol.

476
00:42:46,689 --> 00:42:48,983
Şu an sürü konuşlandırmamızda

477
00:42:49,066 --> 00:42:53,904
hedefi takip etmeleri için
tek bir komut veriyoruz.

478
00:42:54,488 --> 00:42:57,283
Dronlar gidip her şeyi kendileri yapıyor.

479
00:42:59,493 --> 00:43:01,161
Yapay zekâ, robotların

480
00:43:01,245 --> 00:43:06,083
merkezî olmayan bir şekilde
topluca hareket etmesini sağlıyor.

481
00:43:10,671 --> 00:43:12,506
Doğada gördüğümüz sürülerde

482
00:43:13,299 --> 00:43:18,178
ne yapacaklarını söyleyen bir patron,
bir lider hayvan yok.

483
00:43:20,556 --> 00:43:27,104
Her bir hayvanın davranışı
birkaç basit kurala uyarak ortaya çıkıyor.

484
00:43:27,688 --> 00:43:32,443
Bunun sonucunda, gördüğünüz bu
kolektif davranış ortaya çıkıyor.

485
00:43:33,944 --> 00:43:37,031
Doğal sürülerin hayranlık uyandıran yanı

486
00:43:37,114 --> 00:43:39,992
zarifçe hareket etme becerileri.

487
00:43:40,576 --> 00:43:44,288
Sanki bu grubun
bir parçası olmak için yaratılmışlar.

488
00:43:46,790 --> 00:43:51,128
İdeal olarak dron sürümüzde
görmek istediğimiz şey

489
00:43:51,211 --> 00:43:53,172
doğal sürülerde olduğu gibi,

490
00:43:53,672 --> 00:43:56,717
kararların grup tarafından alınması.

491
00:43:59,928 --> 00:44:02,765
Bizim için diğer ilham kaynağı da

492
00:44:02,848 --> 00:44:06,268
istikrar ve dayanıklılıklarından geliyor.

493
00:44:07,311 --> 00:44:13,567
Hayvanlardan biri görevini yapmazsa
sürü başarısız olmaz.

494
00:44:15,194 --> 00:44:18,697
Unsurlardan biri düşse, başarısız olsa

495
00:44:18,781 --> 00:44:20,866
ya da görevi tamamlayamasa bile

496
00:44:21,909 --> 00:44:23,369
sürü yoluna devam eder.

497
00:44:25,204 --> 00:44:27,873
Nihayetinde istediğimiz şey bu.

498
00:44:29,333 --> 00:44:33,879
Savaş senaryolarında düşman uçaklarını
tespit etmek için buna ihtiyacımız var.

499
00:44:33,962 --> 00:44:37,841
Eskiden her robotu
ayrı bir kişi kumanda ediyordu.

500
00:44:38,592 --> 00:44:42,012
Otonomi arttıkça çok sayıda robot

501
00:44:42,096 --> 00:44:46,558
çok az sayıda insan tarafından
kontrol edilecek.

502
00:44:47,851 --> 00:44:51,188
Sonunda 1.000'e ulaşamamamız için
bir sebep göremiyorum

503
00:44:51,855 --> 00:44:54,942
çünkü her unsur
kendi isteğiyle hareket edebilir.

504
00:44:55,025 --> 00:44:56,443
Üst sınırı yok.

505
00:44:57,027 --> 00:44:59,071
Öğrenmemizi ölçeklendirebiliriz…

506
00:44:59,154 --> 00:45:03,325
Uzun zamandır
sürü simülasyonumuz üzerinde çalışıyoruz.

507
00:45:03,409 --> 00:45:07,246
Bunu gerçek hayatta uygulama vakti geldi.

508
00:45:07,329 --> 00:45:12,042
Ağ üzerinden aynı anda üç robot yönetmeyi,

509
00:45:12,126 --> 00:45:15,129
sonra da ek yetenekler eklemeyi umuyoruz.

510
00:45:15,879 --> 00:45:18,799
Bunu daha küçük sistemlerde test etmek,

511
00:45:18,882 --> 00:45:23,679
sonra da aynı konsepti savaş uçağı gibi
daha büyük sistemlere uygulamak istiyoruz.

512
00:45:24,596 --> 00:45:26,515
Şunu sürekli konuşuyoruz,

513
00:45:26,598 --> 00:45:31,937
bir müfrezeye bir taburun
savaş gücünü nasıl verirsiniz?

514
00:45:34,982 --> 00:45:39,528
Ya da bir tabura
bir tugayın savaş günü versek?

515
00:45:39,611 --> 00:45:41,613
Sürü yöntemiyle bunu yapabilirsin.

516
00:45:42,614 --> 00:45:45,200
Sürünün gücünü açığa çıkarabildiğin zaman

517
00:45:45,284 --> 00:45:49,455
askerî saldırganlığa karşı
stratejik caydırıcılık yaratmış olursun.

518
00:45:52,332 --> 00:45:56,420
Bence en heyecan verici şey şu,
bunu doğru yaparsak

519
00:45:57,004 --> 00:46:00,591
çok sayıda genç erkek ve kadın kurtulacak.

520
00:46:01,091 --> 00:46:05,846
Onları insan hayatıyla değil,
makinelerle takas ediyoruz.

521
00:46:06,638 --> 00:46:10,893
Bazıları otonom silahların,
savaşı daha hassas,

522
00:46:10,976 --> 00:46:15,397
daha insancıl kılacağını iddia ediyor
ancak otonom silahların

523
00:46:15,481 --> 00:46:19,443
savaşı nasıl değiştirebileceğini
önceden tahmin etmek zor.

524
00:46:21,320 --> 00:46:23,238
Gatling silahının icadı gibi.

525
00:46:23,322 --> 00:46:25,073
GATLING MAKİNELİ TÜFEK

526
00:46:25,157 --> 00:46:30,954
Richard Gatling bir mucitti.
İç Savaş'tan yaralı dönen askerleri gördü.

527
00:46:32,289 --> 00:46:35,292
Savaşı daha insancıl kılmanın
yollarını aradı.

528
00:46:36,293 --> 00:46:42,633
Savaş alanındaki asker sayısını azaltarak
ölen askerlerin sayısını azaltmak istedi.

529
00:46:44,092 --> 00:46:48,388
Ateşleme sürecini otomatikleştirebilen bir
manivela tarafından döndürülen

530
00:46:48,472 --> 00:46:50,516
otomatik bir silah icat etti.

531
00:46:53,268 --> 00:46:57,981
Askerlerin ateş gücünü 100 kat artırdı.

532
00:47:01,235 --> 00:47:07,991
Savaşı hassas ve insancıl kılma çabaları
çoğu zaman tam tersi etki yapar.

533
00:47:10,160 --> 00:47:13,580
Kırsal alanda yerel halkı
Birleşik Devletler'e,

534
00:47:13,664 --> 00:47:17,543
yerel yönetime,
sözde iyi adamlara karşı kışkırtan

535
00:47:17,626 --> 00:47:20,712
hatalı bir dron saldırısının
etkilerini düşünün.

536
00:47:22,589 --> 00:47:25,008
Şimdi bunu 1.000'le çarpın.

537
00:47:26,802 --> 00:47:30,305
İnsan operatöre ihtiyaç duymayan,

538
00:47:30,389 --> 00:47:34,560
ucuz ve ölçeklendirilebilir bir
silah sistemi yaratmak

539
00:47:34,643 --> 00:47:37,896
çatışmanın önündeki engelleri
büyük ölçüde kaldırıyor.

540
00:47:40,107 --> 00:47:44,903
Savaşın her yerde patlak verebileceği
bir dünyayı düşünmek uykularımı kaçırıyor.

541
00:47:44,987 --> 00:47:48,657
Savaşın insani ve finansal yükünü
taşımaz olduk

542
00:47:48,740 --> 00:47:51,410
çünkü kaybedilen canlardan

543
00:47:52,369 --> 00:47:54,037
çok uzaktayız.

544
00:47:59,501 --> 00:48:01,420
Bunlar beni rahatsız ediyor.

545
00:48:02,212 --> 00:48:06,300
Yapay zekânın kötüye kullanılmasına dair
bir örneğe ihtiyacım vardı.

546
00:48:06,800 --> 00:48:13,265
Bu basit düşünce deneyinin
beklenmedik sonuçları çok ileri gitti.

547
00:48:13,348 --> 00:48:16,226
İLAÇ KEŞFİNDE YAPAY ZEKÂ:
ZARARDAN KAÇINMAK

548
00:48:17,352 --> 00:48:21,023
Yapay zekâ teknolojisinin yarattığı
zehirli moleküllerle ilgili

549
00:48:21,106 --> 00:48:24,484
sunum yaptığımda
katılımcıların ağzı açık kaldı.

550
00:48:25,402 --> 00:48:27,613
İLK 5.000 BİLEŞİK, XV İÇERİYORDU

551
00:48:29,406 --> 00:48:33,577
Sonra bu bilgiyi
yayınlasak mı diye düşündük.

552
00:48:34,912 --> 00:48:40,125
Bir yandan dünyayı bu yetenekler konusunda
uyarmak istiyorsun ama öte yandan

553
00:48:40,208 --> 00:48:44,087
bunu hiç düşünmemiş birinin
aklına sokmak istemiyorsun.

554
00:48:46,381 --> 00:48:51,386
Bu tür yapay zekânın kötüye kullanımını
ortaya çıkmadan önce azaltmak için

555
00:48:51,470 --> 00:48:54,139
yayınlamaya değer olduğuna karar verdik.

556
00:48:54,222 --> 00:48:56,975
İLAÇ KEŞFEDEN YAPAY ZEKÂNIN
İKİ YÖNLÜ KULLANIMI

557
00:48:57,559 --> 00:49:01,813
İLAÇ KEŞFEDEN YAPAY ZEKÂ
BİYOKİMYA SİLAHLARI TASARLAYABİLİR

558
00:49:01,897 --> 00:49:04,775
Halkın tepkisi şoke ediciydi.

559
00:49:07,194 --> 00:49:10,656
Kaç kişinin eriştiğini
sayfadan görebiliyoruz.

560
00:49:10,739 --> 00:49:14,451
Normalde yazdığımız türden makaleleri

561
00:49:14,534 --> 00:49:19,831
bir ya da birkaç yılda
birkaç bin kişi okur.

562
00:49:19,915 --> 00:49:22,084
Bir hafta içinde 10.000 kişi okudu.

563
00:49:22,167 --> 00:49:25,754
Sonra 20.000, sonra 30.000, sonra 40.000.

564
00:49:25,837 --> 00:49:28,715
Günde 10.000 kişiye çıktık.

565
00:49:30,258 --> 00:49:33,512
The Economist'e,
Financial Times'a konu olduk.

566
00:49:35,639 --> 00:49:39,977
Radiolab aradı. Radiolab'i duymuştum.

567
00:49:41,937 --> 00:49:45,899
Ama sonra tepkiler
kontrolden çıkmaya başladı.

568
00:49:48,819 --> 00:49:49,695
KORKUTUCU.

569
00:49:49,778 --> 00:49:53,532
"Tanrım, daha kötü bir şey
yapabilirler mi?" diyorlardı.

570
00:49:54,324 --> 00:49:55,993
Bunu neden yaptılar?

571
00:49:57,911 --> 00:50:01,081
İNEKLERİN ELİNDE ÖLECEĞİZ.

572
00:50:01,164 --> 00:50:04,501
Sonra hiç beklemediğim bir davet geldi.

573
00:50:08,797 --> 00:50:12,926
Beyaz Saray'da
makale hakkında çok tartışılmış.

574
00:50:13,010 --> 00:50:15,345
Acilen bizimle konuşmak istediler.

575
00:50:18,849 --> 00:50:23,020
Bu seviyedeki insanlarla konuşabilmek
olağanüstü bir onur.

576
00:50:24,104 --> 00:50:28,900
Sonra farkına varıyorsun,
"Tanrım, burası Beyaz Saray. Patron."

577
00:50:29,693 --> 00:50:33,196
Açık kaynaklı veri kümelerini
bir araya getirdik…

578
00:50:33,280 --> 00:50:37,701
Model, altı saat içinde
40.000'den fazlasını üretebildi…

579
00:50:37,784 --> 00:50:41,038
Ne kadar bilgisayar gücü
gerektiğini sordular.

580
00:50:41,872 --> 00:50:43,832
Özel bir şey olmadığını söyledik.

581
00:50:44,332 --> 00:50:48,336
Altı yıllık, sıradan bir Mac.

582
00:50:49,546 --> 00:50:51,465
Akılları başlarından gitti.

583
00:50:54,968 --> 00:50:59,681
Kimyasal harp silahlarını
takip etmekten sorumlu görevlilerin

584
00:50:59,765 --> 00:51:04,019
ve devlet kurumlarının
bu potansiyelden haberi yoktu.

585
00:51:06,605 --> 00:51:09,983
Kimyasal silah yapmak için
bir yemek kitabımız vardı

586
00:51:10,650 --> 00:51:15,572
ve kötü niyetli birinin elinde

587
00:51:16,698 --> 00:51:19,451
çok korkunç şeyler olabilirdi.

588
00:51:21,703 --> 00:51:23,205
Dikkatli dinlemeliydiler.

589
00:51:23,288 --> 00:51:26,458
Teknolojiyi düzenleyecek
adımlar atılmalıydı

590
00:51:27,250 --> 00:51:30,879
veya kötüye kullanılamayacak şekilde
kısıtlanması gerekiyordu.

591
00:51:31,880 --> 00:51:37,344
Çünkü ölümcül olma ihtimali korkunçtu.

592
00:51:40,680 --> 00:51:45,977
Yapay zekânın etiği sorunu
sadece toplum tarafından ele alınıyor.

593
00:51:46,561 --> 00:51:50,273
Mühendisler, teknoloji uzmanları,
matematikçilerce değil.

594
00:51:52,484 --> 00:51:56,822
Geliştirdiğimiz her teknoloji,
her yeni buluş nihayetinde toplumun

595
00:51:56,905 --> 00:52:00,617
onu nasıl kullanmamız gerektiğine
inandığı konusuna giriyor.

596
00:52:01,201 --> 00:52:02,953
YAPAY ZEKÂ ETİK İLKELERİ

597
00:52:03,036 --> 00:52:06,498
Şu anda Savunma Bakanlığı diyor ki

598
00:52:06,581 --> 00:52:11,920
"Muharebe alanında bir şeyi öldüreceğimizi
sadece bir insan söyleyebilir."

599
00:52:12,504 --> 00:52:14,548
Makine öldüren olabilir

600
00:52:15,674 --> 00:52:18,927
ama sadece bir insan operatör emrederse.

601
00:52:19,636 --> 00:52:21,429
Bence bu hiç değişmeyecek.

602
00:52:24,808 --> 00:52:28,103
Bu tür bir teknolojinin
güvenli olacağını söylüyorlar.

603
00:52:29,729 --> 00:52:32,232
Ama Birleşik Devletler ordusunun

604
00:52:32,315 --> 00:52:35,485
dron savaşlarında
güvenilir bir geçmişi yok.

605
00:52:36,820 --> 00:52:41,783
Yapay zekâ konusunda
ABD ordusuna güvenmeye gelince

606
00:52:41,867 --> 00:52:44,953
sicillerinden gün gibi ortada.

607
00:52:46,288 --> 00:52:50,625
ABD Savunma Bakanlığı'nın silahlarda
otonomi kullanımıyla ilgili prensibi

608
00:52:50,709 --> 00:52:52,919
hiçbir silah sistemini yasaklamıyor.

609
00:52:53,003 --> 00:52:56,715
Ordular otonom silahlar istemese bile

610
00:52:56,798 --> 00:53:03,680
rakiplerine ayak uydurmak için
pek çok kararı makinelere devrettiler.

611
00:53:04,764 --> 00:53:09,978
Bu da orduları, istemedikleri kararları
otomatikleştirmeye itebilir.

612
00:53:12,022 --> 00:53:16,693
Vladimir Putin, "Yapay zekâda
lider olan ülke, dünyayı yönetecek" dedi.

613
00:53:17,736 --> 00:53:21,823
Başkan Xi yapay zekânın
Çin'in hâkimiyet kurmak istediği

614
00:53:21,907 --> 00:53:25,827
bir numaralı teknoloji olduğunu
açıkça belirtti.

615
00:53:26,786 --> 00:53:29,831
Belli ki bir teknoloji yarışındayız.

616
00:53:33,501 --> 00:53:35,670
Sınırlamalardan bahsediliyor.

617
00:53:36,463 --> 00:53:39,424
Bence de bu yapmalı.

618
00:53:40,425 --> 00:53:45,180
Ama yapay zekâda üstünlük kurmak için
ciddi bir yarış yapılıyor.

619
00:53:47,265 --> 00:53:51,603
İster Çin, ister Rusya,
ister İran olsun, rakiplerimiz

620
00:53:52,187 --> 00:53:56,566
yapay zekâ konusunda prensiplerimizin
ne dediğine takılmayacak.

621
00:54:00,820 --> 00:54:04,532
Yapay zekâ politikasıyla ilgili
çok daha fazla tartışma dönüyor

622
00:54:06,117 --> 00:54:11,706
ama keşke daha çok lider çıkıp
"Bunu ne kadar hızlı yapabiliriz?" dese.

623
00:54:12,666 --> 00:54:15,168
Ne kaynak gerekiyorsa verip inşa edelim."

624
00:54:18,922 --> 00:54:21,299
AUSA PROFESYONEL GELİŞME FORUMU

625
00:54:24,177 --> 00:54:26,805
BİRLEŞİK DEVLETLER ORDUSU

626
00:54:33,478 --> 00:54:38,358
Amerikan ordusunun
en büyük ticaret fuarındayız.

627
00:54:39,609 --> 00:54:44,572
Orduya ürün veya teknoloji satan herkes

628
00:54:44,656 --> 00:54:46,616
burada sergi açıyor.

629
00:54:47,701 --> 00:54:50,537
Tyndall Hava Kuvvetleri Üssü'nde

630
00:54:50,620 --> 00:54:53,957
yedi gün 24 saat devriye gezen
dört robotumuz var.

631
00:54:55,750 --> 00:54:59,462
Kameradan sensöre kadar
her şeyi ekleyebiliriz.

632
00:54:59,546 --> 00:55:05,135
Ne isterseniz. Müşterinin aklındaki
görev için her ne lazımsa.

633
00:55:06,678 --> 00:55:08,680
Ya yapay zekâyı düşman kullanırsa?

634
00:55:09,347 --> 00:55:12,142
Daha hızlı düşünen,
bir insanın yapabileceğinden

635
00:55:12,225 --> 00:55:16,062
daha hızlı tepki veren bir savaş sistemi.
Hazırlıklı olmalıyız.

636
00:55:17,605 --> 00:55:21,526
Sistemlerimizi düşman hakkında
bilgi toplamak üzere eğitiyoruz.

637
00:55:22,027 --> 00:55:26,531
Hedefleri idare ederken
öldürme zincirinin başında insanlar var.

638
00:55:33,288 --> 00:55:34,956
-Merhaba General.
-Nasılsın?

639
00:55:35,040 --> 00:55:36,416
İyiyim efendim. Siz?

640
00:55:37,709 --> 00:55:40,962
Yapay zekâ pilotuna
en çok yatırım yapan şirketiz.

641
00:55:41,046 --> 00:55:42,630
Adı da Hivemind.

642
00:55:43,298 --> 00:55:47,135
Dört pervaneli helikopterimiz
Nova'ya uyguladık. Binalara giriyor.

643
00:55:47,218 --> 00:55:50,805
Özel kuvvetlerden,
piyadelerden önce onları keşfediyor.

644
00:55:50,889 --> 00:55:52,891
Hivemind'ı V-Bat'e uyguluyoruz.

645
00:55:52,974 --> 00:55:56,811
Yüzlerce birimlik
takımlar kurmayı düşünüyorum.

646
00:55:56,895 --> 00:55:59,981
İster Tayvan Boğazı,
ister Ukrayna'da olsun,

647
00:56:00,065 --> 00:56:01,608
düşmanlarımızı caydırıyor.

648
00:56:01,691 --> 00:56:03,360
Bu konuda çok heyecanlıyız.

649
00:56:03,943 --> 00:56:06,196
-Teşekkürler.
-Teşekkürler General.

650
00:56:07,989 --> 00:56:13,495
Yapay zekâ pilotları
2025, 2030'da her yerde olmalı.

651
00:56:14,204 --> 00:56:17,582
Tüm dünya orduları tarafından
hızla kabul görecek.

652
00:56:19,250 --> 00:56:22,962
Romanya ordusunun
IHA uzmanıyla ne konuşacaksın?

653
00:56:23,046 --> 00:56:24,589
Orduda yüksek teknoloji.

654
00:56:25,256 --> 00:56:29,803
Yapay zekâ pilotu yapmak için
bugüne kadar yarım milyar dolar harcadık.

655
00:56:29,886 --> 00:56:33,181
Önümüzdeki beş yılda
bir milyar dolar daha harcayacağız.

656
00:56:33,264 --> 00:56:37,769
Amerika'da kayıt programlarını
kazanmamızın önemli bir nedeni bu.

657
00:56:37,852 --> 00:56:38,853
Güzel.

658
00:56:38,937 --> 00:56:42,816
Etkileyici. Silaha dönüştürebildiniz mi?

659
00:56:43,650 --> 00:56:45,568
Bu henüz silaha dönüştürülmedi.

660
00:56:45,652 --> 00:56:48,321
Henüz değil. Ama evet, gelecekte.

661
00:56:48,863 --> 00:56:51,116
Müşterimiz bunu kamyonet gibi görüyor.

662
00:56:51,199 --> 00:56:54,452
Bize göre ise birçok şey yapabilen
akıllı bir kamyonet.

663
00:56:54,536 --> 00:56:57,914
-Teşekkürler.
-Size muhakkak bilgi vereceğim.

664
00:57:01,668 --> 00:57:04,879
10 yıl sonra tekrar geldiğinizde

665
00:57:06,297 --> 00:57:10,802
yapay zekânın ve otonominin
tüm pazara hükmettiğini göreceksiniz.

666
00:57:14,889 --> 00:57:19,352
Yapay zekânın ve otonominin
desteklediği güçler

667
00:57:19,436 --> 00:57:25,275
onlara sahip olmayan güçleri
tamamen ezip yok edecek.

668
00:57:26,401 --> 00:57:30,780
Atların tanklarla karşılaşması gibi.

669
00:57:31,698 --> 00:57:34,826
Kılıçlı insanların
makineli tüfekle karşılaşması gibi.

670
00:57:34,909 --> 00:57:37,412
Hiç şansları olmayacak.

671
00:57:38,746 --> 00:57:42,750
Her yerde olacak,
her türlü savaşta kullanılacak.

672
00:57:43,585 --> 00:57:44,836
Taktik seviyede,

673
00:57:45,336 --> 00:57:46,713
stratejik seviyede

674
00:57:47,213 --> 00:57:50,800
insanların bugün
idrak edemeyeceği hızlarda çalışıyorlar.

675
00:57:53,094 --> 00:57:57,432
Komutanlar hâlen bilgiye boğulmuş durumda.

676
00:57:57,515 --> 00:58:01,394
Uydulardan, dronlardan,
sensörlerden gelen görüntülere.

677
00:58:02,103 --> 00:58:06,774
Yapay zekâ, bir komutanın olan biteni
daha hızlı anlamasına yardımcı olabilir.

678
00:58:07,692 --> 00:58:09,944
Ne gibi kararlar vermesi gerektiğine.

679
00:58:11,237 --> 00:58:14,866
Yapay zekâ tüm unsurları hesaba katarak

680
00:58:14,949 --> 00:58:17,702
savaşma şeklini belirleyecek,

681
00:58:18,286 --> 00:58:20,246
stratejiler geliştirecek…

682
00:58:22,540 --> 00:58:25,668
…ve kazanmak için tavsiyelerde bulunacak.

683
00:58:30,673 --> 00:58:34,344
LOCKHEED MARTIN
İNOVASYON MERKEZİ

684
00:58:36,971 --> 00:58:40,266
Lockheed Martin olarak
müşterimiz Savunma Bakanlığı gibi

685
00:58:40,350 --> 00:58:45,104
yapay zekâyı komuta ve kontrol için
önemli bir teknoloji olarak görüyoruz.

686
00:58:47,065 --> 00:58:50,109
Yayılma hızı saniyede ortalama 60 santim.

687
00:58:50,193 --> 00:58:52,612
Bu alan yaklaşık 300 hektar.

688
00:58:52,695 --> 00:58:55,782
Savaş sisi savunma tarafında
kesin olan bir gerçeklik

689
00:58:57,158 --> 00:59:03,206
ama orman yangınlarıyla mücadelede
karar aşamasında paralellikler gösteriyor.

690
00:59:03,289 --> 00:59:06,543
Washburn yangını Wawona'nın kuzeyinde.

691
00:59:06,626 --> 00:59:09,629
Eksik verilerle karar vermek zorundasın.

692
00:59:10,630 --> 00:59:14,300
Savaş sisi konusunda
yapay zekâ bize nasıl yardım edecek?

693
00:59:17,637 --> 00:59:20,056
Orman yangınları tam bir kaostur.

694
00:59:20,139 --> 00:59:21,266
Çok karmaşıktır.

695
00:59:22,267 --> 00:59:28,273
Karar vermemize yardımcı olması için
yapay zekâyı kullanmaya çalışıyoruz.

696
00:59:31,442 --> 00:59:33,987
Bilişsel Görev İdarecisi programımız

697
00:59:34,070 --> 00:59:37,949
havadan çekilen kızıl ötesi videoları

698
00:59:38,032 --> 00:59:41,786
yapay zekâ algoritmalarımızla işleyerek

699
00:59:41,869 --> 00:59:45,248
yangının gelecekteki durumunu
tahmin etmeye çalışıyor.

700
00:59:48,042 --> 00:59:52,922
Bilişsel Görev İdarecisi
gelecekte simülasyon kullanacak.

701
00:59:53,006 --> 00:59:57,093
Binlerce döngü boyunca
senaryoları işleyecek.

702
00:59:57,176 --> 01:00:00,722
Kaynakları dağıtmanın
en etkili yolunu önererek

703
01:00:00,805 --> 01:00:04,392
yangını öncelikli alanlarda bastıracak.

704
01:00:08,062 --> 01:00:12,817
"Git, buraya Firehawk'la
havadan bastırma yap" diyecek.

705
01:00:13,568 --> 01:00:15,903
"Kara ekipleriyle çalıları temizle.

706
01:00:16,946 --> 01:00:19,574
Hortumla çalışan itfaiyecileri yolla.

707
01:00:19,657 --> 01:00:23,077
Onları en yüksek öncelikli bölgelere koy."

708
01:00:26,289 --> 01:00:31,336
Bu kararlar daha hızlı
ve verimli şekilde alınabilecek.

709
01:00:35,882 --> 01:00:38,593
Yapay zekâyı
insanların sürekli değişen çevreye

710
01:00:38,676 --> 01:00:42,305
ayak uydurabilmesini sağlayan
eşsiz bir şey olarak görüyoruz.

711
01:00:43,389 --> 01:00:46,517
Savunma tarafında Lockheed Martin'de

712
01:00:46,601 --> 01:00:50,521
alışkın olduğumuza benzer birçok şey var.

713
01:00:52,231 --> 01:00:56,402
Ordu hedef alma ve öldürme kararları için
sadece yapay zekâyı

714
01:00:56,486 --> 01:01:00,323
ve bireysel silah sistemlerini
kullanmaktan bahsetmiyor.

715
01:01:00,865 --> 01:01:05,787
Yapay zekâyı ordunun tüm
karar alma mimarisine entegre ediyorlar.

716
01:01:09,457 --> 01:01:13,378
Ordunun, Yakınsama Projesi adında
büyük bir projesi var.

717
01:01:14,545 --> 01:01:16,589
Donanmada, Overmatch var.

718
01:01:16,673 --> 01:01:19,592
Hava Kuvvetleri'nde ise
İleri Savaş İdare Sistemi.

719
01:01:21,886 --> 01:01:26,683
Savunma Bakanlığı, "Bütün bu parçaları
nasıl bir araya getireceğiz?" diyor.

720
01:01:26,766 --> 01:01:29,268
Nasıl düşmandan daha hızlı hareket edip

721
01:01:30,395 --> 01:01:32,355
gerçek bir avantaj kazanacağım?"

722
01:01:33,481 --> 01:01:35,858
Yapay zekâ muharebe sorumlusu

723
01:01:35,942 --> 01:01:39,821
muharebeden sorumlu
üst rütbeli bir komutandır.

724
01:01:41,155 --> 01:01:44,158
Çok sayıda birliğe emir verilmesi,

725
01:01:45,118 --> 01:01:48,121
tüm silahların hareketlerinin
koordine edilmesi,

726
01:01:48,204 --> 01:01:51,958
bunu hiçbir insanın yetişemeyeceği
bir hızda yapılması gerekir.

727
01:01:53,543 --> 01:01:58,756
Son 70 yılı dünyanın
en gelişmiş ordusunu kurarak geçirdik.

728
01:01:58,840 --> 01:02:03,177
Şimdi bu altyapının kontrolünü

729
01:02:03,261 --> 01:02:08,057
bir algoritmaya, bir yazılıma verip
vermeme kararıyla karşı karşıyayız.

730
01:02:10,351 --> 01:02:12,145
Bu kararın sonucu

731
01:02:12,228 --> 01:02:16,774
tüm askerî cephaneliğimizin
bir anda ateşlenmesi olabilir.

732
01:02:16,858 --> 01:02:19,902
Bu bir değil, yüzlerce Hiroşima demek.

733
01:02:25,616 --> 01:02:27,869
Şimdi harekete geçme zamanı

734
01:02:27,952 --> 01:02:33,166
çünkü bu riski kontrol altına
alabileceğimiz pencere hızla kapanıyor.

735
01:02:33,958 --> 01:02:35,084
BİRLEŞMİŞ MİLLETLER

736
01:02:35,168 --> 01:02:36,461
Gündemin ilk maddesi

737
01:02:36,544 --> 01:02:41,132
ölümcül otonom silah sistemleri alanında
gelişen teknolojilerin yarattığı

738
01:02:41,215 --> 01:02:44,343
uluslararası güvenlik sorunları.

739
01:02:44,427 --> 01:02:47,722
Birleşmiş Milletler'de
ölümcül otonom silah tehdidi

740
01:02:47,805 --> 01:02:50,016
ve hedef seçip ateş açarken

741
01:02:50,600 --> 01:02:56,564
yapay zekâ kullanan sistemlerin
yasaklanması konusu konuşuluyor.

742
01:02:56,647 --> 01:03:00,777
Teknoloji uzmanları arasında
fikir birliği var.

743
01:03:00,860 --> 01:03:04,030
İnsanları hedef alan
otonom silahlara karşıyız.

744
01:03:05,615 --> 01:03:11,287
Devletler yıllarca bu ölümcül otonom silah
sistemlerine yardım etti ve bunu tartıştı.

745
01:03:12,288 --> 01:03:16,793
Paylaşılan, ortak bir
güvenlik duygusuyla ilgili.

746
01:03:17,794 --> 01:03:20,546
Ama tabii ki kolay değil.

747
01:03:21,297 --> 01:03:25,968
Bazı ülkeler, özellikle bu askerî güçler

748
01:03:26,052 --> 01:03:27,762
önde olmak istiyor.

749
01:03:28,429 --> 01:03:31,599
Böylece rakiplerinden önde olacaklar.

750
01:03:32,600 --> 01:03:36,187
Sorun şu ki, bunu çözmek için
herkesin kabul etmesi gerek.

751
01:03:36,896 --> 01:03:39,065
Her zaman bir ülke itiraz edecek.

752
01:03:39,148 --> 01:03:41,192
ABD ve Rusya

753
01:03:41,275 --> 01:03:45,655
otonom silahları yasaklayacak bir
anlaşmaya karşı olduğunu açıkça belirtti.

754
01:03:47,198 --> 01:03:53,704
Yapay zekâyı daha güçlü yapmak için
çalışan insanların sayısını düşünelim.

755
01:03:54,747 --> 01:03:56,457
Bu grup çok kalabalık.

756
01:03:57,917 --> 01:04:02,880
Yapay zekânın güvenli olması için
çalışanların sayısı ise

757
01:04:04,340 --> 01:04:07,510
bir hayli az kalıyor.

758
01:04:11,764 --> 01:04:13,724
Ama aynı zamanda çok iyimserim.

759
01:04:16,102 --> 01:04:20,189
Sovyetler Birliği ve ABD arasındaki
gerilime rağmen

760
01:04:20,273 --> 01:04:22,358
Soğuk Savaş yıllarında yapılan

761
01:04:23,025 --> 01:04:27,655
Biyolojik Silahlar Konvansiyonu gibi
bir şeye bakıyorum.

762
01:04:29,156 --> 01:04:34,036
Biyolojik silah geliştirmenin
ne kendi çıkarlarına

763
01:04:34,120 --> 01:04:38,749
ne de dünyanın çıkarlarına
uygun olduğunu fark ettiler.

764
01:04:41,335 --> 01:04:45,047
Silahlanma yarışı dinamikleri
güvenlikten ziyade hızı önemsiyor.

765
01:04:45,715 --> 01:04:52,430
Ama bence önemli olan şu, bir noktada
hızlı hareket etmenin maliyeti çok yüksek.

766
01:04:56,225 --> 01:04:59,270
Bir şeyleri tek başına geliştirip

767
01:05:00,021 --> 01:05:06,611
gelecekte nereye gideceğini düşünmeden
öylece ortaya koyamayız.

768
01:05:07,862 --> 01:05:10,823
O atom bombası anını önlemeliyiz.

769
01:05:14,577 --> 01:05:17,705
Yapay zekâ yarışındaki riskler çok büyük.

770
01:05:18,789 --> 01:05:25,755
75 yıldır üstün bir
askerî güce sahip olmanın sağladığı

771
01:05:25,838 --> 01:05:31,135
küresel istikrarı
pek kimse takdir etmiyor.

772
01:05:32,887 --> 01:05:38,684
Bu yüzden ABD ve müttefik güçlerimiz
rakiplerimizin yapay zekâsını yenebilmeli.

773
01:05:43,314 --> 01:05:44,774
Savaşta ikincilik olmaz.

774
01:05:45,524 --> 01:05:49,111
Çin, 2030'a kadar yapay zekâda
dünya lideri olmakta iddialı.

775
01:05:49,195 --> 01:05:51,656
Bazılarına göre Amerika kaybediyor…

776
01:05:52,740 --> 01:05:56,160
Yapay zekâyı hızla uygulamaya koyarak

777
01:05:56,243 --> 01:05:59,246
rekabetçi askerî avantaj sağlayacaksınız.

778
01:06:02,875 --> 01:06:05,461
Teknolojide hızla ilerliyoruz.

779
01:06:05,544 --> 01:06:08,798
Belirsiz olan ise
ne kadar ileri gideceğimiz.

780
01:06:09,507 --> 01:06:12,760
Biz mi teknolojiyi kontrol ediyoruz
yoksa o mu bizi?

781
01:06:14,136 --> 01:06:16,973
İkinci kez denemek gibi bir şans yok.

782
01:06:17,807 --> 01:06:20,977
Cin şişeden çıkınca çıkmış olacak.

783
01:06:22,019 --> 01:06:25,189
Onu geri koymak çok ama çok zor.

784
01:06:28,609 --> 01:06:31,737
Şimdi harekete geçmezsek çok geç olacak.

785
01:06:33,114 --> 01:06:34,657
Belki şimdi bile geç.

786
01:08:48,582 --> 01:08:52,586
Alt yazı çevirmeni: Çetin Soy



