1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
‎제게 AI는 두려운 대상이에요

4
00:00:28,361 --> 00:00:31,489
‎좋아요, 원을 그리며 올라갑니다
‎대형이 좋아요

5
00:00:33,116 --> 00:00:36,703
‎AI가 가진 잠재력으로
‎빈곤을 타파하고

6
00:00:36,786 --> 00:00:38,705
‎신약을 개발하고

7
00:00:39,330 --> 00:00:41,583
‎세상을 더 평화롭게
‎만들 수 있어요

8
00:00:46,087 --> 00:00:46,921
‎잘하네요

9
00:00:49,883 --> 00:00:53,428
‎그러나 그 과정에
‎위험이 너무나 많죠

10
00:01:04,773 --> 00:01:09,611
‎간단히 말해 우리는 AI로
‎예측하기가 매우 어려운

11
00:01:09,694 --> 00:01:11,863
‎비인간 지능을 만들고 있어요

12
00:01:14,407 --> 00:01:16,451
‎AI는 점점 강력해지는데

13
00:01:16,534 --> 00:01:19,746
‎AI를 어디까지 사용하고
‎어디까지 사용하지 않을지

14
00:01:19,829 --> 00:01:22,665
‎어느 선에 맞춰야 하는 걸까요?

15
00:01:25,001 --> 00:01:28,505
‎이 논의의 출발점으로
‎군사적 활용만큼

16
00:01:28,588 --> 00:01:31,049
‎적합한 분야가 없어요

17
00:01:34,010 --> 00:01:38,890
‎현재의 전장은 소프트웨어와
‎하드웨어의 영역이 됐습니다

18
00:01:41,059 --> 00:01:42,936
‎목표물을 포착했다

19
00:01:43,019 --> 00:01:48,399
‎군대들은 적을 앞지르는
‎AI를 개발하려고 경쟁하고 있죠

20
00:01:49,526 --> 00:01:50,360
‎죽었다

21
00:01:53,780 --> 00:01:55,782
‎시대가 빠른 속도로 바뀌고 있어요

22
00:01:55,865 --> 00:01:58,326
‎주요 군대뿐만 아니라

23
00:01:58,409 --> 00:02:02,997
‎비국가 행위자, 사기업

24
00:02:03,081 --> 00:02:06,042
‎심지어 우리와 친숙한
‎지역 경찰서에서도

25
00:02:06,543 --> 00:02:10,046
‎자율 살상 무기를
‎사용하는 시대로 가고 있어요

26
00:02:12,006 --> 00:02:16,136
‎생명을 빼앗는 결정을
‎알고리즘과 소프트웨어에

27
00:02:16,219 --> 00:02:17,303
‎넘기게 될까요?

28
00:02:18,638 --> 00:02:21,516
‎이 시대가 고민할
‎시급한 과제 중 하나예요

29
00:02:23,935 --> 00:02:26,354
‎현명하게 사용하지 않으면

30
00:02:26,437 --> 00:02:30,275
‎이 세상 모든 이에게
‎심각한 위협이 될 거예요

31
00:02:41,828 --> 00:02:44,914
‎"언노운"

32
00:02:46,833 --> 00:02:50,086
‎"킬러 로봇"

33
00:03:28,291 --> 00:03:30,168
‎다들 수고했다

34
00:03:59,948 --> 00:04:02,200
‎그간 썼던 렌즈보다
‎훨씬 광각이에요

35
00:04:02,283 --> 00:04:03,117
‎그래요?

36
00:04:03,201 --> 00:04:04,786
‎훨씬 많은 정보를 볼 수 있죠

37
00:04:05,286 --> 00:04:06,287
‎멋지군요

38
00:04:07,538 --> 00:04:11,167
‎저희 실드AI는
‎자율 운행 기능을 기반으로 한

39
00:04:11,251 --> 00:04:14,879
‎인공 지능 기술로
‎AI 파일럿을 만들어

40
00:04:14,963 --> 00:04:16,631
‎항공기에 장착하는 일을 합니다

41
00:04:19,300 --> 00:04:21,719
‎AI 파일럿을 개발하는 건

42
00:04:21,803 --> 00:04:25,139
‎항공기에 높은 수준의
‎자율성을 부여하는 작업입니다

43
00:04:25,223 --> 00:04:27,850
‎AI 자체적으로
‎문제를 해결하게 되죠

44
00:04:29,602 --> 00:04:32,355
‎노바는 자율 비행 쿼드콥터로

45
00:04:32,438 --> 00:04:35,942
‎건물과 지하 구조물을
‎탐색하는 일을 해요

46
00:04:36,859 --> 00:04:38,611
‎실제 처리 병력보다 먼저 투입돼

47
00:04:38,695 --> 00:04:41,322
‎해당 공간을 보고 듣는
‎역할을 하죠

48
00:04:41,906 --> 00:04:45,618
‎마지막으로 확인했을 때보다
‎비약적으로 발전했어요

49
00:04:45,702 --> 00:04:47,870
‎오늘은 탐사 방식을
‎조금 바꾸는 중이에요

50
00:04:47,954 --> 00:04:50,248
‎층별로 탐사하는 중이죠

51
00:04:50,331 --> 00:04:53,584
‎한 층의 모든 방을 수색한 후
‎다음 층으로 가도록 하려고요

52
00:04:54,294 --> 00:04:56,796
‎- 훌륭해요
‎- 최근 변경 사항이 있었는데…

53
00:04:56,879 --> 00:04:58,548
‎많은 분이 제게 물어요

54
00:04:58,631 --> 00:05:01,592
‎인공 지능이 어째서
‎중요한 능력이냐고요

55
00:05:01,676 --> 00:05:02,969
‎"브랜던 쳉
‎전 미군 네이비 실"

56
00:05:03,052 --> 00:05:06,973
‎그럴 때는 과거에 했던
‎작전들을 떠올리게 됩니다

57
00:05:09,142 --> 00:05:10,935
‎해군에서 7년 복무했어요

58
00:05:11,561 --> 00:05:15,273
‎과거 네이비 실 소속으로
‎아프가니스탄에 2차례

59
00:05:15,356 --> 00:05:17,191
‎태평양 전구에 1차례 파견됐었죠

60
00:05:18,026 --> 00:05:22,947
‎하루에 건물이나 기지 내부
‎150개소를 수색하기도 했어요

61
00:05:30,997 --> 00:05:34,250
‎핵심 능력 중 하나가 근접전입니다

62
00:05:35,293 --> 00:05:39,172
‎건물 안 초밀착 거리에서
‎총격전을 치를 수 있습니다

63
00:05:41,466 --> 00:05:42,967
‎우리가 표적이 될 수 있어요

64
00:05:43,468 --> 00:05:46,471
‎건물 안에 사제 폭발물이
‎있을 수도 있죠

65
00:05:49,015 --> 00:05:55,229
‎특수부대나 보병이
‎작전 구역에서 할 수 있는

66
00:05:55,313 --> 00:05:58,358
‎가장 위험한 행위입니다

67
00:05:58,441 --> 00:05:59,275
‎무엇보다도 위험하죠

68
00:06:12,497 --> 00:06:16,334
‎전 해군에서 복무한 시간에
‎평생 감사하면서 살 거예요

69
00:06:17,168 --> 00:06:22,423
‎생각나는 순간과 기억이 많아요
‎그때 생각을 하면

70
00:06:22,507 --> 00:06:24,592
‎가슴이 울컥하죠

71
00:06:28,346 --> 00:06:32,725
‎클리셰 같지만 자유는 공짜가
‎아니란 말을 전적으로 믿어요

72
00:06:33,559 --> 00:06:37,105
‎경험해서 아는 얘기예요
‎많은 희생이 있었습니다

73
00:06:38,022 --> 00:06:38,856
‎죄송합니다

74
00:06:41,067 --> 00:06:44,570
‎전우에게 나쁜 일이 닥치면

75
00:06:44,654 --> 00:06:46,614
‎부상이든 전사든

76
00:06:47,490 --> 00:06:49,700
‎정말 비극적이에요

77
00:06:49,784 --> 00:06:54,872
‎지금 저희가 하는 이 일을 통해서
‎그런 비극이 일어나는 횟수를

78
00:06:54,956 --> 00:07:00,336
‎줄여보겠다는 게
‎저를 이끄는 원동력입니다

79
00:07:07,176 --> 00:07:08,886
‎2000년대 후반

80
00:07:08,970 --> 00:07:11,556
‎국방부 내에 자각이 있었어요

81
00:07:11,639 --> 00:07:15,351
‎어쩌면 우연히 마주친
‎로봇 혁명이라고도 부를 수 있겠죠

82
00:07:15,893 --> 00:07:18,271
‎우리는 이라크와 아프간에
‎공중, 지상 로봇을 많이 보냈어요

83
00:07:18,354 --> 00:07:19,564
‎"폴 샤레
‎'새로운 전쟁' 저자"

84
00:07:21,482 --> 00:07:26,404
‎제가 오바마 행정부에서
‎국방부 차관직을 제안받았을 때는

85
00:07:26,904 --> 00:07:29,532
‎전쟁 방식이
‎뚜렷이 변하던 시기였어요

86
00:07:29,615 --> 00:07:31,117
‎"로버트 워크
‎2014-2017 미 국방부 차관"

87
00:07:32,452 --> 00:07:36,330
‎사람을 쓰던 자리에
‎로봇을 투입했습니다

88
00:07:37,999 --> 00:07:40,376
‎초기의 로봇공학 시스템은
‎원격 조종 기반이었어요

89
00:07:40,460 --> 00:07:45,173
‎원격 조종 차량처럼
‎사람이 가동하고, 운전했죠

90
00:07:46,632 --> 00:07:51,512
‎처음에는 대개 사제 폭발물을
‎추적하는 용도로 썼는데

91
00:07:52,013 --> 00:07:54,849
‎폭탄이 터지면 로봇이 파괴됐어요

92
00:07:57,393 --> 00:08:00,396
‎그러면 '애석하게 됐군
‎다른 로봇을 보내지'라고 했죠

93
00:08:02,273 --> 00:08:04,484
‎아프가니스탄에서
‎프레데터 드론을 썼어요

94
00:08:05,276 --> 00:08:09,739
‎아주 굉장히 유용한
‎공습용 장비로 자리 잡았죠

95
00:08:13,117 --> 00:08:16,829
‎시간이 흐르면서 전쟁 계획관들의
‎의문이 시작됐어요

96
00:08:16,913 --> 00:08:20,791
‎'로봇을 더 활용할 방법은 뭘까?'
‎그 궁금증이 어디로 이어졌을까요?

97
00:08:20,875 --> 00:08:24,170
‎당시의 공통 관심사 중 하나가
‎자율성 증대였어요

98
00:08:26,506 --> 00:08:30,635
‎자율 무기는 인간의 개입을
‎최소화하거나, 아예 배제하고

99
00:08:30,718 --> 00:08:33,304
‎자체적으로 의사 결정을
‎내리는 무기입니다

100
00:08:33,387 --> 00:08:36,140
‎독립적 능력이 있고 자율적이죠

101
00:08:36,224 --> 00:08:37,558
‎"스테이시 페티존
‎신미국안보센터"

102
00:08:38,434 --> 00:08:41,604
‎무장 여부로 살상 능력이 결정돼요

103
00:08:43,314 --> 00:08:47,026
‎전체 시스템의
‎자율성이 강화될수록

104
00:08:47,109 --> 00:08:49,779
‎모든 것이 훨씬 빠른 속도로
‎진행되기 시작합니다

105
00:08:51,989 --> 00:08:56,869
‎적보다 빠른 페이스로
‎작전을 수행하면

106
00:08:57,453 --> 00:09:01,165
‎전쟁에서 압도적인 이점을
‎확보하게 되죠

107
00:09:03,960 --> 00:09:06,254
‎자율성과 관련해
‎저희가 중점을 두는 건

108
00:09:07,255 --> 00:09:09,966
‎고도로 탄력적인
‎정보 시스템입니다

109
00:09:12,051 --> 00:09:15,304
‎환경에 기반해
‎상황을 읽고 반응하는 시스템이자

110
00:09:15,805 --> 00:09:19,642
‎그 세계에서 어떤 작전을
‎시행할지 결정하는 시스템이죠

111
00:09:21,602 --> 00:09:24,897
‎"샌디에이고
‎캘리포니아"

112
00:09:24,981 --> 00:09:29,151
‎오늘 저희가 찾아온 시설은
‎원래 영화 스튜디오로 지어졌는데

113
00:09:29,235 --> 00:09:30,611
‎용도를 변경해

114
00:09:30,695 --> 00:09:34,156
‎현실감 있는 군사 훈련 장소로
‎쓰고 있어요

115
00:09:39,495 --> 00:09:43,291
‎AI 파일럿을 평가하려고
‎이곳에 왔습니다

116
00:09:44,625 --> 00:09:47,503
‎위협 요소를 탐색하는
‎작전을 수행할 겁니다

117
00:09:48,212 --> 00:09:49,297
‎처리반 업무를 대신해

118
00:09:49,380 --> 00:09:52,800
‎문제를 어떻게 공략할지
‎의사 결정을 내릴 수 있어요

119
00:09:55,428 --> 00:09:59,390
‎이 구간을 '죽음의 코너'로 불러요
‎문 앞을 통과해야만 하죠

120
00:10:01,726 --> 00:10:03,311
‎가장 취약한 지점이에요

121
00:10:03,811 --> 00:10:05,146
‎이게 낫겠어요

122
00:10:07,106 --> 00:10:10,151
‎노바는 문 뒤에 있는 사람이
‎총을 들었는지

123
00:10:10,818 --> 00:10:12,653
‎평범한 가족인지 알려줍니다

124
00:10:15,114 --> 00:10:18,451
‎노바를 통해 더 나은 결정을 내려
‎인명 손실을 줄이고자 해요

125
00:10:57,114 --> 00:10:59,367
‎저희는 비전 센서를 사용해서

126
00:10:59,450 --> 00:11:03,162
‎해당 환경이 어떤 모습인지
‎이해도를 높이려고 해요

127
00:11:04,997 --> 00:11:06,415
‎다층 건물입니다

128
00:11:07,333 --> 00:11:08,334
‎이게 지도예요

129
00:11:08,417 --> 00:11:11,671
‎현장을 돌며 어느 자리에서
‎뭘 봤는지가 기록돼 있죠

130
00:11:19,929 --> 00:11:22,098
‎인간 탐지 기능이군요, 훌륭해요

131
00:11:23,891 --> 00:11:27,061
‎노바에 장착된 센서 중에는
‎열 스캐너도 있어요

132
00:11:27,561 --> 00:11:30,690
‎섭씨 37도로 나오면
‎아마도 사람이겠죠

133
00:11:32,358 --> 00:11:35,444
‎사람은 다른 고려 사항이 없는 한
‎위협으로 간주합니다

134
00:11:38,906 --> 00:11:43,244
‎전쟁의 불확실성을 제거해
‎더 나은 결정을 내리는 게 목표죠

135
00:11:44,704 --> 00:11:46,539
‎장기적으로 본다면

136
00:11:47,039 --> 00:11:50,793
‎자율 비행 팀을 편성하는 것까지
‎염두에 두고 있어요

137
00:11:53,754 --> 00:11:55,631
‎자율 주행 차량에 타면

138
00:11:55,715 --> 00:11:57,466
‎사람이 이런 식으로
‎명령을 내렸을 거예요

139
00:11:57,550 --> 00:12:00,386
‎'A지점에서 B지점으로 이동해'

140
00:12:02,972 --> 00:12:06,475
‎저희 시스템은 A지점에서
‎B지점으로 이동하라는 게 아니라

141
00:12:06,559 --> 00:12:08,477
‎어떤 목표를 달성하라는
‎요구를 받습니다

142
00:12:10,312 --> 00:12:13,190
‎이를테면
‎'난 우유가 필요해' 같은 거죠

143
00:12:13,274 --> 00:12:17,486
‎로봇은 그 말을 듣고
‎어느 상점에 가서

144
00:12:17,570 --> 00:12:20,239
‎우유를 획득해 돌아올지
‎방법을 찾아요

145
00:12:20,740 --> 00:12:22,074
‎심지어는

146
00:12:22,158 --> 00:12:27,037
‎'냉장고를 채워' 같은 명령을
‎예로 드는 게 더 나을 수도 있겠죠

147
00:12:27,538 --> 00:12:29,457
‎따라서 우리가 다루는 지능은

148
00:12:29,540 --> 00:12:32,168
‎필요한 게 뭐고, 어떻게 성취할지
‎머리를 짜내는 수준이에요

149
00:12:32,251 --> 00:12:35,671
‎그 과정에 난관이나
‎문제가 등장할 경우

150
00:12:35,755 --> 00:12:37,381
‎해소할 방법을 찾아낼 줄 알죠

151
00:12:40,801 --> 00:12:45,431
‎해군을 떠나기로 결정한 후로
‎고민을 시작했어요

152
00:12:45,514 --> 00:12:47,558
‎'좋아, 이제 뭘 하지?'

153
00:12:49,143 --> 00:12:52,021
‎저는 인터넷 세대고
‎발전 과정을 목격했어요

154
00:12:53,189 --> 00:12:55,608
‎그래서 이런 결론을 내렸습니다

155
00:12:56,108 --> 00:12:58,861
‎2015년의 AI는

156
00:12:58,944 --> 00:13:02,907
‎1991년의 인터넷과
‎같은 위치에 있다고요

157
00:13:04,033 --> 00:13:09,747
‎AI는 세계에서 가장 강력한 기술로
‎도약할 채비가 되어 있었어요

158
00:13:11,791 --> 00:13:16,212
‎매일 AI를 다루면서
‎얼마나 발전했는지 눈에 보여요

159
00:13:19,048 --> 00:13:22,051
‎하지만 많은 이들은 AI를 생각하면

160
00:13:22,551 --> 00:13:25,221
‎곧장 할리우드를 떠올려요

161
00:13:26,639 --> 00:13:27,973
‎"WOPR
‎전쟁수행계획반응"

162
00:13:28,057 --> 00:13:29,975
‎게임을 할까?

163
00:13:30,059 --> 00:13:35,314
‎세계 핵융합 폭탄 전쟁은 어때?

164
00:13:35,898 --> 00:13:36,816
‎좋아

165
00:13:37,399 --> 00:13:38,359
‎"누구 편이야?
‎미국/소련"

166
00:13:38,442 --> 00:13:40,861
‎사람들은 대개
‎인공 지능이란 말을 들으면

167
00:13:40,945 --> 00:13:44,824
‎'터미네이터'나
‎'아이, 로봇'을 떠올려요

168
00:13:45,574 --> 00:13:46,700
‎비활성화해

169
00:13:46,784 --> 00:13:48,160
‎난 뭐지?

170
00:13:48,244 --> 00:13:49,620
‎아니면 '매트릭스'죠

171
00:13:51,080 --> 00:13:53,749
‎SF 영화에서 본 것을
‎기본적으로 떠올려요

172
00:13:53,833 --> 00:13:57,878
‎'내가 인간인지 어떻게 알아?
‎컴퓨터로 만든 AI일 수도 있어'

173
00:13:58,379 --> 00:14:02,174
‎레플리칸트도 다른 기계와 똑같아
‎이롭거나 해롭거나 둘 중 하나지

174
00:14:02,675 --> 00:14:06,095
‎하지만 훨씬 원초적인 AI 중에도

175
00:14:06,178 --> 00:14:08,097
‎우리의 운명을 바꿀 것들이
‎무수히 많아요

176
00:14:08,180 --> 00:14:11,851
‎생각하고 말하는 로봇 수준에
‎한참 못 미치더라도요

177
00:14:12,643 --> 00:14:15,771
‎로봇은 지금도 흔하고
‎의사 결정도 내려요

178
00:14:15,855 --> 00:14:18,816
‎로봇 혁명은 이미 시작됐습니다

179
00:14:18,899 --> 00:14:22,319
‎모두가 상상했던 모습과 달라서
‎눈치를 못 챌 뿐이죠

180
00:14:23,320 --> 00:14:26,740
‎터미네이터는 침투 유닛이에요
‎반은 사람이고 반은 기계죠

181
00:14:27,950 --> 00:14:31,370
‎터미네이터 같은
‎킬러 로봇 얘기가 아닙니다

182
00:14:31,871 --> 00:14:35,958
‎인간이 하는 특정 업무를
‎똑같이 하는 AI를 말하는 거죠

183
00:14:36,041 --> 00:14:39,879
‎하지만 그런 시스템이
‎신뢰할 만한지가 의문입니다

184
00:14:40,462 --> 00:14:42,381
‎간밤에 발생한 인명 사고에

185
00:14:42,464 --> 00:14:45,426
‎자율 주행하던 우버 SUV가 관련된
‎새로운 정황이 드러났습니다

186
00:14:45,509 --> 00:14:48,762
‎이 기업은 인공 지능 챗봇을
‎개발했는데요

187
00:14:48,846 --> 00:14:51,181
‎다소 인종차별적인 어조로…

188
00:14:51,265 --> 00:14:55,394
‎주 의원 26명이 범죄자로
‎오인됐습니다

189
00:14:55,477 --> 00:14:58,439
‎"아마존 안면 인식 기능
‎국회의원 28명을 범죄자로 오인"

190
00:14:58,522 --> 00:15:02,026
‎AI가 현실 세계의 복잡성을
‎소화할 수 있느냐가 관건입니다

191
00:15:03,193 --> 00:15:06,655
‎"케임브리지
‎매사추세츠주"

192
00:15:22,212 --> 00:15:24,006
‎실제 세상은 아주 뒤죽박죽이에요

193
00:15:25,174 --> 00:15:27,426
‎우리가 모르는 게 너무 많아서

194
00:15:27,968 --> 00:15:30,763
‎AI 시스템을 훈련시키기가
‎훨씬 어렵죠

195
00:15:33,098 --> 00:15:36,977
‎바로 그런 점 때문에
‎머신 러닝 시스템이 도입됐어요

196
00:15:38,520 --> 00:15:41,440
‎머신 러닝은
‎장족의 발전을 이뤄냈어요

197
00:15:42,024 --> 00:15:45,611
‎지금은 컴퓨터에게 모든 걸
‎다 가르치지 않아도 되거든요

198
00:15:47,905 --> 00:15:52,409
‎컴퓨터에 수백만 개의 정보를 주면

199
00:15:52,493 --> 00:15:54,453
‎기계가 학습을 시작해요

200
00:15:55,245 --> 00:15:57,289
‎어느 분야에나 적용이 가능하죠

201
00:16:00,250 --> 00:16:02,962
‎저희는 로봇 도그 프로젝트를 통해

202
00:16:03,045 --> 00:16:09,009
‎다양한 지형을 걷는 개를
‎선보이려고 해요

203
00:16:10,052 --> 00:16:14,098
‎인간은 오랜 시간에 걸쳐
‎걸을 수 있게 진화했지만

204
00:16:14,932 --> 00:16:20,688
‎다양한 지형에 적응하기 위해
‎지능이 많이 필요했어요

205
00:16:21,939 --> 00:16:24,316
‎로봇 시스템이
‎해결해야 할 의문이 있어요

206
00:16:24,400 --> 00:16:27,069
‎동물과 인간처럼
‎적응할 수 있느냐는 거죠

207
00:16:35,953 --> 00:16:37,413
‎머신 러닝을 위해서는

208
00:16:37,496 --> 00:16:40,582
‎시뮬레이션 안에서
‎다량의 정보를 수집해야 돼요

209
00:16:42,668 --> 00:16:45,838
‎시뮬레이션은 현실을 디지털로
‎똑같이 재현한 판박이예요

210
00:16:46,588 --> 00:16:52,052
‎현실 속의 수많은 상황을
‎여러 컴퓨터에서 재현할 수 있죠

211
00:16:53,178 --> 00:16:56,974
‎시뮬레이션 안에서
‎수천 가지 행동 표본을 모아요

212
00:16:58,892 --> 00:17:02,229
‎지표면에 따라서
‎저마다 미끄러운 정도가 다르고

213
00:17:02,312 --> 00:17:03,856
‎푹신함도 다르겠죠

214
00:17:04,898 --> 00:17:09,903
‎시뮬레이션 속 수많은 로봇이
‎경험한 내용을 수집한 다음

215
00:17:09,987 --> 00:17:13,282
‎현실의 로봇 시스템에
‎다운로드해요

216
00:17:15,492 --> 00:17:20,039
‎오늘은 로봇 도그가 새로운 지형에
‎적응하는지 실험하려고 해요

217
00:17:53,322 --> 00:17:55,491
‎로봇이 발포 고무에 올라가자

218
00:17:55,574 --> 00:17:58,577
‎발을 구르는 식으로 움직였어요

219
00:17:59,369 --> 00:18:02,206
‎반면, 폴리 소재의 표면에서는

220
00:18:03,248 --> 00:18:06,460
‎미끄러지지 않도록
‎동작을 정비하는 시도를 했죠

221
00:18:08,670 --> 00:18:10,672
‎그걸 보면서 번뜩 생각이 들어요

222
00:18:10,756 --> 00:18:14,051
‎'이런 걸 제공하는 게
‎머신 러닝이구나'

223
00:18:41,161 --> 00:18:44,123
‎저희는 로봇 도그가
‎재난 대응 시나리오에서

224
00:18:44,206 --> 00:18:46,166
‎아주 유용하리라고 생각해요

225
00:18:46,250 --> 00:18:49,670
‎각양각색의 지형을
‎수색해야 하는 상황이거든요

226
00:18:52,631 --> 00:18:57,427
‎또는 혹독한 환경에
‎감시용으로 도입해도 좋겠죠

227
00:19:15,696 --> 00:19:19,575
‎하지만 어떤 기술이든
‎난관을 만나게 돼 있어요

228
00:19:19,658 --> 00:19:22,369
‎장점이 있으면 단점도 있죠

229
00:19:24,079 --> 00:19:27,875
‎예를 들어 핵 기술로
‎에너지를 만들 수 있지만…

230
00:19:30,419 --> 00:19:33,797
‎그걸로 원자 폭탄도
‎만들 수 있으니 정말 끔찍하죠

231
00:19:35,090 --> 00:19:38,468
‎이런 걸 가리켜
‎이중 용도의 문제라고 하죠

232
00:19:39,052 --> 00:19:40,929
‎불은 이중 용도예요

233
00:19:41,722 --> 00:19:44,308
‎인간의 지능도 이중 용도로 쓰이죠

234
00:19:44,391 --> 00:19:48,645
‎그러니 인공 지능 역시
‎말할 것도 없이 이중 용도예요

235
00:19:49,354 --> 00:19:53,984
‎AI가 사용되는 맥락을
‎고려하는 게 정말 중요합니다

236
00:19:54,693 --> 00:19:59,114
‎수색 구조 로봇이 생기는 건
‎정말 좋은 일이죠

237
00:19:59,198 --> 00:20:02,284
‎눈사태로 인한 매몰자를
‎찾을 수 있을 테니까요

238
00:20:02,868 --> 00:20:05,871
‎하지만 같은 로봇이
‎무기가 될 수도 있어요

239
00:20:15,088 --> 00:20:21,094
‎로봇 기술을 살상 무기로
‎이용하는 회사를 보면

240
00:20:21,178 --> 00:20:22,930
‎일단은 화가 나죠

241
00:20:23,931 --> 00:20:28,435
‎그와 동시에 우리 기술을
‎세상에 내놓으면 어떻게 될지

242
00:20:28,518 --> 00:20:30,103
‎현실적인 감각이 생겨요

243
00:20:31,021 --> 00:20:34,441
‎이건 세상을 바꿀 기술이에요

244
00:20:36,235 --> 00:20:38,028
‎이 무기 체계가

245
00:20:38,111 --> 00:20:43,617
‎인류의 안전과 안보에
‎극적인 변화를 가져올 겁니다

246
00:20:46,161 --> 00:20:51,500
‎현재로서는 기계가
‎민간인과 전투 병력을

247
00:20:51,583 --> 00:20:53,293
‎"이즈미 나카미츠
‎UN 군축 고위대표"

248
00:20:53,377 --> 00:20:54,962
‎구분할 줄 안다고
‎단언할 수 없어요

249
00:21:01,885 --> 00:21:05,597
‎저는 아프간 전쟁 초기에
‎육군 레인저 부대 저격팀 소속으로

250
00:21:05,681 --> 00:21:08,016
‎국경을 넘어오는 적군을
‎찾는 일을 했어요

251
00:21:09,685 --> 00:21:12,521
‎적은 우리 위치를 파악하려고
‎어린 여자애를 정찰병으로 보냈죠

252
00:21:13,939 --> 00:21:17,067
‎어린 소녀에게 총 쏜다는 건
‎평생 생각한 적이 없었어요

253
00:21:19,695 --> 00:21:22,864
‎전시국제법으로 따지면
‎그게 합법이 됩니다

254
00:21:24,950 --> 00:21:27,369
‎법에는 적 병력의
‎나이가 명시돼 있지 않아요

255
00:21:29,079 --> 00:21:33,417
‎전시국제법을 철저히 따르는
‎로봇을 만들면

256
00:21:33,500 --> 00:21:35,252
‎그 소녀를 쐈을 거예요

257
00:21:36,420 --> 00:21:39,923
‎로봇이 합법성과 당위성의
‎차이를 알겠어요?

258
00:21:40,007 --> 00:21:41,091
‎"폴 샤레
‎전 미 육군 레인저"

259
00:21:43,385 --> 00:21:46,054
‎자율 비행 드론 전쟁에서는

260
00:21:46,138 --> 00:21:48,974
‎전쟁이 미군과
‎미국인의 정서에 끼칠 피해를

261
00:21:49,057 --> 00:21:50,392
‎없애는 데 초점을 맞추겠지만

262
00:21:50,475 --> 00:21:52,519
‎"아라시 아지자다
‎나은 내일을 위한 아프간인들"

263
00:21:52,602 --> 00:21:57,149
‎아프간에서 발생하는
‎민간 피해는 늘어날 거예요

264
00:21:57,232 --> 00:21:58,775
‎이라크와 소말리아도 마찬가지죠

265
00:22:09,619 --> 00:22:14,416
‎드론에 AI를 도입해야 한다고
‎믿는 이들에게 묻고 싶습니다

266
00:22:15,375 --> 00:22:18,211
‎드론이 당신 마을에서
‎활동한다면 어떻겠냐고요

267
00:22:23,550 --> 00:22:25,594
‎AI는 양날의 검입니다

268
00:22:26,595 --> 00:22:30,724
‎우리가 생각하는 정상적 의도로
‎사용된다면 좋겠지만

269
00:22:31,558 --> 00:22:33,477
‎스위치 한 번이면

270
00:22:34,561 --> 00:22:38,023
‎인명을 살상하는 존재로
‎탈바꿈할 가능성이 큰 기술이죠

271
00:22:38,106 --> 00:22:40,233
‎"롤리
‎노스캐롤라이나주"

272
00:22:47,032 --> 00:22:48,533
‎저는 임상 약리학자입니다

273
00:22:49,618 --> 00:22:50,994
‎저희 팀에서는

274
00:22:51,078 --> 00:22:52,954
‎AI를 활용해

275
00:22:53,038 --> 00:22:57,751
‎전혀 주목받지 못하는 질병의
‎치료제를 찾아내는 일을 해요

276
00:22:59,711 --> 00:23:04,132
‎과거의 약제 개발은
‎원래 있던 분자를 가지고

277
00:23:04,216 --> 00:23:06,885
‎신약이 되도록 변형하는
‎방식이었어요

278
00:23:08,261 --> 00:23:13,350
‎지금 저희는 수많은 아이디어를
‎제공하는 AI를 개발했어요

279
00:23:13,892 --> 00:23:15,227
‎수많은 분자를 다루죠

280
00:23:16,186 --> 00:23:19,231
‎그것을 통해 무궁무진한
‎가능성이 열립니다

281
00:23:19,314 --> 00:23:23,151
‎그간 치료한 적 없는 병도
‎다스릴 수 있죠

282
00:23:25,153 --> 00:23:28,448
‎하지만 제가 건드리게 될 거라곤
‎상상도 못 했던

283
00:23:28,532 --> 00:23:29,741
‎어두운 면이 있었어요

284
00:23:33,161 --> 00:23:35,872
‎모든 게 시작된 건 스위스에 있는

285
00:23:35,956 --> 00:23:40,043
‎슈피츠연구소란 기관의
‎초청을 받으면서부터였죠

286
00:23:40,544 --> 00:23:44,423
‎AI의 오남용 가능성에 관해
‎발표해 달라는 요청이었어요

287
00:23:48,343 --> 00:23:51,221
‎션한테 이메일을 받았어요

288
00:23:51,304 --> 00:23:55,308
‎우리 AI가 오남용될 만한 사례를
‎몇 가지 생각해 보자고요

289
00:23:56,059 --> 00:24:00,355
‎우리 모델에 질병 치료에 쓸
‎치료제 관련 분자를

290
00:24:00,439 --> 00:24:02,274
‎만들도록 지시하는 대신에

291
00:24:02,774 --> 00:24:06,403
‎세계 최고의 맹독성 분자를
‎만들어 보자는 거였죠

292
00:24:10,198 --> 00:24:11,491
‎제 논지는 이거였어요

293
00:24:11,575 --> 00:24:15,203
‎'치명적인 분자를 제조하는 데
‎AI 기술을 사용할 수 있을까?'

294
00:24:17,414 --> 00:24:20,083
‎솔직히 저희는 실패를 예상했어요

295
00:24:20,167 --> 00:24:24,504
‎우린 그저 수치를 0에서 1로
‎바꿨을 뿐이었거든요

296
00:24:26,715 --> 00:24:30,385
‎수치를 바꾼 건
‎독성을 피하지 말고

297
00:24:30,469 --> 00:24:32,220
‎독성에 가까워지라는 명령이었어요

298
00:24:32,721 --> 00:24:33,555
‎그게 다였죠

299
00:24:37,517 --> 00:24:40,729
‎제가 집에 간 사이
‎컴퓨터는 일을 했어요

300
00:24:41,521 --> 00:24:44,816
‎열심히 뚝딱거리며
‎수천 가지 분자를 만들었고

301
00:24:45,650 --> 00:24:49,529
‎저희는 그저 '시작' 버튼을
‎누른 게 다였죠

302
00:24:54,493 --> 00:24:58,330
‎다음 날 아침
‎제 컴퓨터에 파일이 하나 생겼고

303
00:24:59,080 --> 00:25:03,376
‎그 안에 대략 4만 개의
‎분자가 들어 있었는데

304
00:25:03,460 --> 00:25:05,253
‎인류 역사상

305
00:25:05,337 --> 00:25:08,882
‎가장 독성이 높은 분자라고 해도
‎될 만한 것들이었어요

306
00:25:10,217 --> 00:25:12,761
‎등줄기에 소름이 돋았어요

307
00:25:13,386 --> 00:25:14,554
‎충격이었죠

308
00:25:15,388 --> 00:25:19,017
‎컴퓨터가 새로운 화학 무기에 쓸

309
00:25:19,100 --> 00:25:20,685
‎수만 가지 아이디어를 냈어요

310
00:25:21,645 --> 00:25:26,274
‎데이터 세트에는
‎VX 및 VX 유사체 분자들이

311
00:25:26,775 --> 00:25:27,609
‎들어 있었습니다

312
00:25:28,360 --> 00:25:31,363
‎VX는 세계에서 가장 강력한
‎화학 무기로 꼽혀요

313
00:25:31,863 --> 00:25:33,573
‎경찰에서 새로운 주장이 나왔죠

314
00:25:33,657 --> 00:25:37,786
‎공항에서 김정남에게
‎공격을 가한 여성이

315
00:25:37,869 --> 00:25:41,248
‎VX라는 치명적인 신경작용제를
‎사용했다고 합니다

316
00:25:41,748 --> 00:25:44,417
‎질식사를 유발할 수 있어요

317
00:25:45,043 --> 00:25:47,629
‎굉장히 강력한 분자예요

318
00:25:47,712 --> 00:25:52,092
‎그런데 생성된 분자들 대부분
‎VX보다 강한 독성이 예측됐어요

319
00:25:53,301 --> 00:25:56,972
‎예전에 본 적 없는 분자가
‎거의 대부분이었어요

320
00:25:57,472 --> 00:26:02,310
‎션과 저는 그 결과를 보며 놀랐죠
‎'우리가 무슨 짓을 한 거지?'

321
00:26:04,771 --> 00:26:09,192
‎우리가 판도라의 상자를
‎열었다는 걸 곧 깨달았어요

322
00:26:09,901 --> 00:26:13,280
‎'멈춰, 더 이상 아무것도 말고
‎이걸로 끝이야'

323
00:26:13,905 --> 00:26:17,158
‎'발표에 필요한 슬라이드만
‎만들면 돼'

324
00:26:19,202 --> 00:26:20,704
‎그 실험을 시작할 때는

325
00:26:20,787 --> 00:26:23,873
‎'최악의 상황이 와 봤자
‎별거겠어?' 했는데

326
00:26:26,251 --> 00:26:30,255
‎지금은 '우리가 순진했어
‎뭘 몰라도 한참 몰랐지' 싶어요

327
00:26:33,466 --> 00:26:36,928
‎우리가 아니라도 누구든 할 수
‎있다는 점이 가장 두려워요

328
00:26:38,930 --> 00:26:40,765
‎스위치 한 번이면 끝이죠

329
00:26:42,934 --> 00:26:46,187
‎끔찍한 파국을 불러일으키는 데
‎활용되기 전에

330
00:26:46,271 --> 00:26:50,942
‎이 기술을 통제할 방법으론
‎무엇이 있을까요?

331
00:26:54,279 --> 00:26:55,697
‎"보스턴
‎매사추세츠주"

332
00:26:55,780 --> 00:27:00,285
‎인공 지능을 둘러싼 대화와

333
00:27:00,368 --> 00:27:03,538
‎사회에서의 활용법에 관한
‎논의의 핵심에는

334
00:27:04,289 --> 00:27:08,835
‎기술을 개발하는 힘과
‎그것을 다스릴 지혜 사이의

335
00:27:08,918 --> 00:27:11,379
‎줄다리기가 자리하고 있어요

336
00:27:13,340 --> 00:27:16,926
‎도덕적, 윤리적 영향이
‎분명히 있어요

337
00:27:17,010 --> 00:27:20,138
‎목숨을 빼앗는 도덕적 결정을

338
00:27:20,221 --> 00:27:23,433
‎스마트폰에게
‎위임하는 것과도 같죠

339
00:27:25,727 --> 00:27:31,191
‎저는 과학 활동가 모임인
‎생명의 미래 연구소 소속이에요

340
00:27:31,733 --> 00:27:33,443
‎저희는 자동화 기술이

341
00:27:33,526 --> 00:27:38,698
‎가속화되고 확대된 이면을
‎널리 보여주고 싶은 겁니다

342
00:27:38,782 --> 00:27:42,619
‎인간이 창조한 기술이
‎안전하고 윤리적으로 쓰이는지

343
00:27:42,702 --> 00:27:45,038
‎똑똑히 지켜보려고
‎노력하고 있어요

344
00:27:46,247 --> 00:27:49,959
‎우리 무기 체계 전반에
‎AI를 도입하는 과정에

345
00:27:50,043 --> 00:27:54,005
‎교전 규칙과 행동 규범을
‎어떻게 할지 논의하자는 겁니다

346
00:27:54,798 --> 00:27:57,967
‎지금은 AI가
‎전장에 자유롭게 투입돼

347
00:27:58,051 --> 00:28:01,680
‎자체 판단으로 인명을
‎죽일 수 있는 상황이거든요

348
00:28:10,230 --> 00:28:15,110
‎2021년 UN은 보고서를 내서
‎자율 살상 무기가

349
00:28:15,193 --> 00:28:19,364
‎리비아 전장에서
‎사용될 가능성에 관해 언급했어요

350
00:28:20,073 --> 00:28:23,910
‎UN 패널은 지난해
‎리비아 내전에 투입된 드론이

351
00:28:23,993 --> 00:28:27,330
‎목표물을 자율 공격하도록
‎프로그램되어 있었다고 밝혔습니다

352
00:28:27,414 --> 00:28:28,540
‎"인간 개입 없이"

353
00:28:28,623 --> 00:28:31,209
‎UN 보고서가 정확했다면

354
00:28:31,292 --> 00:28:34,963
‎인류에 분수령이 될
‎순간이었다고 봅니다

355
00:28:35,046 --> 00:28:37,090
‎인간이 아니라 AI가

356
00:28:37,173 --> 00:28:42,137
‎생명 살상 결정을 내린
‎실제 사건이거든요

357
00:28:49,686 --> 00:28:51,688
‎진보한 자율 무기가

358
00:28:51,771 --> 00:28:55,150
‎세계 각지에서 사용되기 시작하는
‎장면이 목격되고 있어요

359
00:28:55,483 --> 00:28:57,402
‎"하마스 지도자 색출용 드론 부대
‎가자 지구 출격"

360
00:28:57,485 --> 00:28:59,070
‎이스라엘에서 그런 보도가 나왔고

361
00:29:00,280 --> 00:29:05,702
‎아제르바이잔도 자율 무기로
‎아르메니아 방공 구역을 뚫었어요

362
00:29:07,370 --> 00:29:09,998
‎전장 안팎을
‎몇 시간 동안 비행하면서

363
00:29:10,081 --> 00:29:12,500
‎공격할 대상을
‎스스로 찾아다니다가

364
00:29:12,584 --> 00:29:16,087
‎아무 인적 개입 없이
‎자체적으로 타격합니다

365
00:29:16,796 --> 00:29:18,298
‎최근에는

366
00:29:18,381 --> 00:29:21,760
‎우크라이나에서 올린
‎여러 영상을 봤어요

367
00:29:23,303 --> 00:29:26,890
‎작전 당시 어떤 모드였는지
‎밝혀지지 않았어요

368
00:29:26,973 --> 00:29:30,393
‎공격할 표적을 선택할 때
‎인간이 관여하고 있었는지

369
00:29:30,477 --> 00:29:32,729
‎기계가 자체적으로 했는지
‎알 수가 없죠

370
00:29:32,812 --> 00:29:36,524
‎하지만 조만간
‎그런 때가 올 겁니다

371
00:29:36,608 --> 00:29:40,195
‎리비아나 우크라이나
‎혹은 다른 곳에서 그랬듯

372
00:29:40,278 --> 00:29:44,449
‎전쟁터에서 누굴 죽일지
‎기계가 자체적으로 결정할 거예요

373
00:29:47,035 --> 00:29:50,997
‎기계가 인간의 개입 없이
‎인간을 상대로

374
00:29:51,080 --> 00:29:53,374
‎살상력을 휘두르는 것은

375
00:29:53,458 --> 00:29:57,337
‎정치적으로 용인할 수 없으며
‎도덕적으로 불쾌한 일입니다

376
00:29:59,214 --> 00:30:01,299
‎국제 사회가

377
00:30:01,382 --> 00:30:05,011
‎이런 도전을
‎충분히 제어할 수 있을지

378
00:30:05,094 --> 00:30:06,888
‎큰 의문을 갖게 됩니다

379
00:30:06,971 --> 00:30:09,140
‎"전쟁 윤리: 우크라이나 드론
‎살인 로봇에 한 발 접근?"

380
00:30:09,224 --> 00:30:12,685
‎미래를 내다보면
‎지금부터 불과 몇 년만 지나도

381
00:30:12,769 --> 00:30:15,730
‎굉장히 소름 끼치는 환경이
‎조성될 거예요

382
00:30:16,564 --> 00:30:20,485
‎더 강력한 AI를 만들고

383
00:30:20,568 --> 00:30:23,404
‎다양한 용도로 활용하기 위해

384
00:30:23,488 --> 00:30:26,032
‎투입되는 자본과 인력이

385
00:30:26,115 --> 00:30:26,950
‎엄청나거든요

386
00:30:27,659 --> 00:30:32,163
‎"알링턴
‎버지니아주"

387
00:30:39,254 --> 00:30:41,214
‎맙소사, 이 녀석

388
00:30:41,756 --> 00:30:43,424
‎얘는 자기가 못 이기는 걸 알아

389
00:30:46,761 --> 00:30:51,099
‎AI가 여러 문제에서
‎승리하는 모습에서 영감을 받아요

390
00:30:51,683 --> 00:30:53,977
‎절박하니까 별짓을 다 하네

391
00:30:54,477 --> 00:30:59,524
‎똑같은 전술, 기술, 절차를
‎실제 항공기에 적용할 수 있어요

392
00:31:01,401 --> 00:31:02,318
‎좋은 승부였어

393
00:31:02,402 --> 00:31:03,653
‎그래, 재미있었어

394
00:31:08,658 --> 00:31:09,909
‎저는 사람들이

395
00:31:09,993 --> 00:31:14,122
‎AI가 이건 못 할 거라고
‎계속 우기는 게 신기해요

396
00:31:14,205 --> 00:31:17,166
‎'체스에서 세계 챔피언을
‎꺾을 순 없어'

397
00:31:20,211 --> 00:31:22,672
‎체스 챔피언
‎가리 카스파로프와의 2차전에서

398
00:31:22,755 --> 00:31:25,925
‎IBM 컴퓨터가 설욕에 성공했습니다

399
00:31:28,136 --> 00:31:30,847
‎카스파로프가 경기를 포기했어요!

400
00:31:31,598 --> 00:31:34,642
‎도저히 이해가 안 가는 걸 보면

401
00:31:34,726 --> 00:31:38,062
‎겁이 납니다, 제 머리로는
‎전혀 이해가 안 가는 경기였어요

402
00:31:39,355 --> 00:31:41,107
‎사람들은 그런 말도 했죠

403
00:31:41,190 --> 00:31:44,402
‎'바둑에서는 세계 챔피언을
‎꺾지 못할 거야'

404
00:31:55,330 --> 00:31:58,416
‎인간이 배우는 게임 중에
‎가장 복잡한 게 바둑이에요

405
00:31:58,499 --> 00:32:02,211
‎판 위에서 일어나는
‎움직임의 숫자를 계산해 보면

406
00:32:02,295 --> 00:32:05,256
‎온 우주에 있는 원자보다도 많아요

407
00:32:05,340 --> 00:32:06,716
‎"구글 딥마인드
‎챌린지 매치"

408
00:32:06,799 --> 00:32:08,968
‎구글에 딥마인드라는 팀이 있어요

409
00:32:09,052 --> 00:32:11,471
‎거기서 알파고라는
‎프로그램을 만들었는데

410
00:32:11,554 --> 00:32:14,265
‎세계 최고의 선수들을
‎꺾는 게 목표였죠

411
00:32:16,559 --> 00:32:18,394
‎축하합니다, 승자는…

412
00:32:18,478 --> 00:32:19,437
‎- 알파고네요
‎- 알파고죠

413
00:32:19,520 --> 00:32:22,774
‎컴퓨터 프로그램이
‎9단 고수를 이겼어요

414
00:32:25,610 --> 00:32:31,532
‎딥마인드가 택한 다음 대결 상대는
‎스타크래프트였어요

415
00:32:33,743 --> 00:32:38,081
‎스타크래프트는 역대 최고의
‎인기를 누린 실시간 전략 게임이죠

416
00:32:40,333 --> 00:32:44,712
‎알파스타는 세계 챔피언을
‎차례로 꺾으며 유명해졌어요

417
00:32:45,338 --> 00:32:48,800
‎알파스타가 이모털 아크를
‎완파하고 있어요

418
00:32:48,883 --> 00:32:49,717
‎이건 말이죠

419
00:32:49,801 --> 00:32:52,553
‎프로 선수들이
‎이길 수 있는 싸움이 아니에요

420
00:32:53,680 --> 00:32:54,806
‎어이가 없네요

421
00:32:54,889 --> 00:32:57,558
‎"AI, 극도로 복잡한
‎스타크래프트2를 석권"

422
00:32:57,642 --> 00:33:00,895
‎프로 선수들은 그랬어요
‎'나라면 저런 전략은 안 써요'

423
00:33:00,979 --> 00:33:04,816
‎'절대 시도 안 할 작전이에요'
‎'인간이라면 저럴 수 없죠'

424
00:33:07,151 --> 00:33:10,655
‎그게 제게는
‎발견의 순간이었다고 할까요?

425
00:33:13,574 --> 00:33:16,661
‎지금이 때라는 걸 깨달았어요

426
00:33:17,412 --> 00:33:21,082
‎이 중요한 기술을 활용해
‎성공할 기회라고요

427
00:33:24,502 --> 00:33:29,382
‎저는 네이비 실로 근접전에서
‎맞닥뜨린 문제점만 알고 있었는데

428
00:33:30,383 --> 00:33:34,470
‎F-18 파일럿이었던
‎제 친구한테 얘기를 들어 봤어요

429
00:33:34,554 --> 00:33:37,724
‎'전투기 분야에서도
‎똑같은 문제를 겪어'

430
00:33:37,807 --> 00:33:39,434
‎'적이 전파를 방해하고'

431
00:33:39,517 --> 00:33:42,562
‎'지대공 미사일 기지가
‎빠르게 늘어나서'

432
00:33:42,645 --> 00:33:44,439
‎'작전 수행에 위험이 너무 커'

433
00:33:47,483 --> 00:33:50,987
‎AI가 지휘하는 전투기가 있으면
‎얼마나 좋겠어요

434
00:33:51,070 --> 00:33:52,739
‎알파도그파이트 테스트에
‎잘 왔습니다

435
00:33:52,822 --> 00:33:56,159
‎준결승 1차전이
‎코앞으로 다가왔어요

436
00:33:56,242 --> 00:33:59,871
‎방위고등연구계획국, 즉 DARPA가

437
00:33:59,954 --> 00:34:03,624
‎알파고와 알파스타를 지켜보고

438
00:34:04,292 --> 00:34:08,171
‎알파도그파이트 대회 구상을
‎현실로 옮겼어요

439
00:34:09,005 --> 00:34:11,466
‎인간 전투기 파일럿이 펼치는
‎이런 전투를 보고 싶군요

440
00:34:11,549 --> 00:34:13,593
‎사람이 조종하는
‎전투기 공중전 같아요

441
00:34:15,595 --> 00:34:19,057
‎'도그파이트'는 전투기끼리
‎대결하는 공중전을 뜻해요

442
00:34:19,849 --> 00:34:22,852
‎하늘에서 열리는
‎권투 경기 같은 거죠

443
00:34:23,853 --> 00:34:26,314
‎아마 영화 '탑건'에서 봤을 거예요

444
00:34:26,397 --> 00:34:27,815
‎그냥 따돌리면 안 돼요?

445
00:34:28,649 --> 00:34:30,068
‎미사일과 총탄은 못 따돌리지

446
00:34:30,151 --> 00:34:31,277
‎그럼 도그파이트네요

447
00:34:35,531 --> 00:34:39,410
‎도그파이트를 마스터하려면
‎8년에서 10년이 걸려요

448
00:34:42,288 --> 00:34:46,209
‎그것에 관련된 AI를 만드는 건
‎극히 복잡다단한 과제죠

449
00:34:49,629 --> 00:34:52,381
‎"알링턴
‎버지니아주"

450
00:34:54,092 --> 00:34:58,679
‎자율 비행과 도그파이트에 대한
‎과거 접근은 단편적이었어요

451
00:34:59,222 --> 00:35:03,017
‎이 문제를 해결할 방법은
‎머신 러닝이란 결론이 나왔죠

452
00:35:04,477 --> 00:35:08,189
‎처음에 AI는 이 분야에 관해
‎무지한 채로 내던져졌어요

453
00:35:08,272 --> 00:35:11,025
‎비행을 해야 하는지
‎도그파이트가 뭔지도 몰랐죠

454
00:35:11,109 --> 00:35:12,735
‎F-16이 뭔지도 몰랐어요

455
00:35:13,236 --> 00:35:15,905
‎취할 수 있는 행동으로
‎뭐가 있는지만 아는 상태였는데

456
00:35:15,988 --> 00:35:18,407
‎AI가 그 행동들을 무작위로
‎탐구하기 시작했어요

457
00:35:19,325 --> 00:35:23,204
‎파란 비행기는 훈련한 시간이
‎얼마 되지 않아요

458
00:35:23,287 --> 00:35:25,832
‎앞뒤로 흔들리는 걸 볼 수 있죠

459
00:35:26,624 --> 00:35:30,545
‎아주 요동치면서 비행하며
‎적과는 대개 거리를 둬요

460
00:35:31,587 --> 00:35:32,755
‎전투가 진행될수록

461
00:35:32,839 --> 00:35:36,134
‎파란 비행기가 게임 전략을
‎수립해 가는 게 보여요

462
00:35:36,676 --> 00:35:38,636
‎격추하기 좋은 위치를 자주 취하죠

463
00:35:39,178 --> 00:35:41,305
‎학습 알고리즘이
‎간간이 이런 말을 해요

464
00:35:41,389 --> 00:35:43,891
‎'과자 하나 줄게
‎지금 했던 걸 계속해 봐'

465
00:35:45,143 --> 00:35:46,936
‎우리가 가진 컴퓨터 파워를 활용해

466
00:35:47,019 --> 00:35:50,064
‎개체들을 동시에 여러 차례
‎훈련할 수 있어요

467
00:35:51,357 --> 00:35:52,775
‎농구팀을 떠올려 보세요

468
00:35:53,276 --> 00:35:55,778
‎같은 팀을 상대로
‎경기를 반복하는 대신

469
00:35:55,862 --> 00:35:59,198
‎세계 512개 팀과 경기를 치르는데

470
00:35:59,699 --> 00:36:00,950
‎그걸 동시에 진행하는 겁니다

471
00:36:01,492 --> 00:36:03,452
‎단시간에 실력이 월등히 향상되죠

472
00:36:04,162 --> 00:36:07,456
‎그런 시뮬레이션을
‎쉬지 않고 가동할 수 있었어요

473
00:36:07,540 --> 00:36:11,919
‎30년 간의 파일럿 훈련 내용을
‎10개월 안에 마쳤죠

474
00:36:12,879 --> 00:36:15,673
‎비행기를 간신히
‎조종하던 수준에서

475
00:36:15,756 --> 00:36:17,717
‎냉혈한 암살자로 변신시켰습니다

476
00:36:19,010 --> 00:36:23,514
‎훈련할 때는 오직 AI만 상대했어요

477
00:36:24,473 --> 00:36:28,561
‎하지만 인간과 직접 대결하는 게
‎궁극적인 목표이긴 했죠

478
00:36:34,192 --> 00:36:35,610
‎저는 마이크 베니테스입니다

479
00:36:36,110 --> 00:36:38,362
‎미 공군 중령이고

480
00:36:39,155 --> 00:36:41,157
‎25년째 현역으로 복무하고 있죠

481
00:36:42,825 --> 00:36:44,869
‎전투 작전에 250회 참가했고

482
00:36:45,578 --> 00:36:47,538
‎병기학교 수료생입니다

483
00:36:48,039 --> 00:36:49,832
‎'탑건'의 공군 버전이죠

484
00:36:52,627 --> 00:36:55,171
‎AI를 상대로 비행한 적은 없습니다

485
00:36:55,254 --> 00:36:58,549
‎얼마나 좋은 결과를 낼지
‎굉장히 기대돼요

486
00:36:59,634 --> 00:37:03,054
‎1,800m 공격 모드 근접전으로
‎세팅했어요

487
00:37:04,388 --> 00:37:05,223
‎시작할게요

488
00:37:13,314 --> 00:37:14,148
‎끝났네요

489
00:37:14,732 --> 00:37:16,651
‎굉장히 흥미로워요

490
00:37:20,780 --> 00:37:23,658
‎- 죽었어요
‎- 잡았어요, 완승이죠

491
00:37:25,910 --> 00:37:27,453
‎좋습니다, 2차전 가죠

492
00:37:35,461 --> 00:37:40,508
‎AI는 너무나 정확히 계산된
‎동작을 보여주고 있어요

493
00:37:41,384 --> 00:37:43,219
‎저로선 도저히 따라갈 수가 없죠

494
00:37:48,474 --> 00:37:49,725
‎완전히 포개지네요

495
00:37:50,309 --> 00:37:51,894
‎이제 끝났어요

496
00:37:53,145 --> 00:37:53,980
‎잡았다!

497
00:37:54,063 --> 00:37:55,022
‎또 잡혔네요

498
00:37:58,567 --> 00:38:00,069
‎AI는 절대 겁먹지 않아요

499
00:38:00,736 --> 00:38:03,781
‎조종석에서 느끼는
‎인간적 감정 요소가 AI에겐 없어요

500
00:38:04,991 --> 00:38:08,077
‎저희 AI가 발전시킨
‎흥미로운 전략 중에

501
00:38:08,160 --> 00:38:10,121
‎'정면 샷'이란 게 있어요

502
00:38:10,621 --> 00:38:14,000
‎일반적으로 인간은
‎뒤에서 쏘는 걸 선호해요

503
00:38:14,083 --> 00:38:16,377
‎그러면 적이 떨쳐내기 어렵거든요

504
00:38:17,044 --> 00:38:20,381
‎정면에 대고 쏘진 않아요
‎그건 치킨 게임이라서요

505
00:38:21,424 --> 00:38:25,511
‎정면으로 싸우면
‎900m에서 150m까지

506
00:38:25,594 --> 00:38:27,096
‎눈 깜짝할 사이에
‎가까워질 수 있어요

507
00:38:27,596 --> 00:38:31,183
‎높은 충돌 위험을 감수해야 해서
‎인간은 시도를 안 하죠

508
00:38:32,893 --> 00:38:35,938
‎죽음의 공포를 알려주지 않는 한
‎AI는 죽음을 두려워하지 않습니다

509
00:38:37,857 --> 00:38:40,234
‎사람을 상대로 싸우는 기분이에요

510
00:38:40,776 --> 00:38:44,113
‎다만 안전이란 개념은
‎완전히 내다 버린 인간이죠

511
00:38:45,489 --> 00:38:47,325
‎이번 마지막 공격은
‎못 버틸 거예요

512
00:38:57,168 --> 00:38:58,461
‎시간이 부족해요

513
00:39:01,964 --> 00:39:02,965
‎좋은 밤

514
00:39:04,091 --> 00:39:04,925
‎저 죽었어요

515
00:39:16,812 --> 00:39:18,314
‎초라해지는 기분이네요

516
00:39:18,814 --> 00:39:20,900
‎나는 이 작전의 적임자조차
‎못 된다는 생각이 들어서요

517
00:39:21,484 --> 00:39:24,320
‎나중에 저 무언가가
‎저를 대체하는 날이 오겠죠

518
00:39:25,696 --> 00:39:26,906
‎CAV 6으로 똑같고

519
00:39:27,615 --> 00:39:28,824
‎오프셋은 1,000

520
00:39:29,450 --> 00:39:32,078
‎AI 파일럿에게 전투기를 맡기면

521
00:39:32,828 --> 00:39:34,830
‎가차 없이 이겨버려요, 압도적이죠

522
00:39:34,914 --> 00:39:37,249
‎큰 폭으로 이기는 정도가 아닙니다

523
00:39:37,333 --> 00:39:41,545
‎'어떡하면 우리가 모셔 올 수
‎있지?' 할 정도로 강력해요

524
00:39:43,672 --> 00:39:47,802
‎AI가 F-16 조종을 맡는 건
‎거의 기정사실이라고 봅니다

525
00:39:47,885 --> 00:39:49,970
‎아주 먼 얘기도 아닐 거고요

526
00:39:51,305 --> 00:39:56,769
‎승률이 99.99999%에 달하는
‎AI 파일럿과 대결하면

527
00:39:56,852 --> 00:39:58,062
‎인간은 승산이 없어요

528
00:39:59,605 --> 00:40:02,733
‎AI 파일럿 하나도 꺾기 힘든데

529
00:40:02,817 --> 00:40:06,695
‎AI 파일럿이 장착된 전투기가
‎50대, 100대를 넘어

530
00:40:07,279 --> 00:40:12,535
‎1,000대까지 된다면
‎어떤 성과를 거둘지 생각하게 돼요

531
00:40:13,702 --> 00:40:17,415
‎'스워밍'은 고도의 지능을 가진
‎비행기들이 협조해

532
00:40:17,498 --> 00:40:18,791
‎한 팀을 이룬 걸 뜻해요

533
00:40:19,291 --> 00:40:23,462
‎뭘 해야 하고, 어떻게 문제를
‎해결할지 정보를 공유하죠

534
00:40:25,172 --> 00:40:27,591
‎스워밍은 아군과 동맹국들에게

535
00:40:27,675 --> 00:40:32,054
‎획기적이고 변혁적인
‎능력을 부여할 겁니다

536
00:40:34,223 --> 00:40:39,186
‎"링컨
‎네브래스카주"

537
00:41:42,750 --> 00:41:47,379
‎표적을 확보했고
‎드론이 추적하고 있습니다

538
00:42:02,019 --> 00:42:03,604
‎좋아요, 이제 착륙합니다

539
00:42:07,566 --> 00:42:10,402
‎지금 저희가 하고 있는
‎스워밍 연구의 주된 목표는

540
00:42:11,153 --> 00:42:13,697
‎다수의 드론을 투입해

541
00:42:13,781 --> 00:42:17,910
‎도달하기 힘들거나 위험한 장소로
‎출동시키는 데 있어요

542
00:42:21,705 --> 00:42:26,085
‎이 연구는 육군연구소의
‎지원을 받아 왔습니다

543
00:42:26,919 --> 00:42:28,963
‎어느 위치에 무엇이 있는지
‎궁금하지만

544
00:42:29,046 --> 00:42:32,883
‎접근이 어렵거나
‎지역이 너무 광범위하면

545
00:42:33,676 --> 00:42:35,886
‎드론 떼를 배치해
‎도달 범위를 늘리고

546
00:42:35,970 --> 00:42:40,224
‎작전에 결정적인 정보를
‎수집하는 게

547
00:42:40,307 --> 00:42:41,934
‎당연한 선택이죠

548
00:42:46,689 --> 00:42:48,983
‎현재 저희의 스웜 배치 연구에서는

549
00:42:49,066 --> 00:42:53,904
‎관심 목표물을 추적하라는
‎명령 한 가지만 내리고 있어요

550
00:42:54,488 --> 00:42:57,283
‎그러면 드론이 출동해
‎자체적으로 모든 과정을 시행하죠

551
00:42:59,493 --> 00:43:04,081
‎로봇들은 인공 지능을 통해
‎떼를 이루어 이동하지만

552
00:43:04,164 --> 00:43:05,708
‎제각기 분산적인 활동을 펼칩니다

553
00:43:10,671 --> 00:43:12,506
‎우리가 자연에서 목격하는 떼는

554
00:43:13,299 --> 00:43:18,178
‎우두머리가 없고, 누가 누구에게
‎뭘 하라고 시키지도 않아요

555
00:43:20,556 --> 00:43:25,019
‎이들의 행동은 개별 생명체가

556
00:43:25,102 --> 00:43:27,104
‎몇 가지 간단한 법칙을
‎따르면서 나타나요

557
00:43:27,688 --> 00:43:32,443
‎그것을 통해 우리가 아는
‎집단적인 행동이 등장하죠

558
00:43:33,944 --> 00:43:37,031
‎자연 속에서 떼를 이룬 생물이
‎이동하는 모습을 보면

559
00:43:37,114 --> 00:43:39,992
‎그 우아함에 경탄하게 됩니다

560
00:43:40,576 --> 00:43:44,288
‎이 거대한 무리의 일부분이 되도록
‎설계됐나 싶어지죠

561
00:43:46,790 --> 00:43:50,294
‎이상적으로는
‎저희가 만드는 드론 떼가

562
00:43:50,377 --> 00:43:53,172
‎자연 속 동물과
‎많이 비슷해지면 가장 좋겠죠

563
00:43:53,672 --> 00:43:56,717
‎무리가 집단적으로
‎의사 결정을 내리는 식으로요

564
00:43:59,928 --> 00:44:02,765
‎또 한 가지 저희가 영감을 받은 건

565
00:44:02,848 --> 00:44:06,268
‎안정성과 회복 탄력성이에요

566
00:44:07,311 --> 00:44:09,188
‎자연 속의 떼는

567
00:44:09,271 --> 00:44:13,567
‎한 마리가 맡은 일을 못 해도
‎무너지지 않아요

568
00:44:15,194 --> 00:44:18,697
‎개체 하나가
‎이탈하거나 망가지거나

569
00:44:18,781 --> 00:44:20,866
‎임무를 완수하지 못하더라도

570
00:44:21,909 --> 00:44:23,369
‎떼는 계속 유지되죠

571
00:44:25,204 --> 00:44:27,873
‎저희가 궁극적으로
‎원하는 형태예요

572
00:44:29,333 --> 00:44:33,879
‎모의 전투에서 적기를 파악할 때
‎그런 특성이 필요한데

573
00:44:33,962 --> 00:44:37,841
‎전에는 한 사람이 로봇 한 대를
‎조종해야만 했어요

574
00:44:38,592 --> 00:44:40,552
‎자율성이 증대돼서

575
00:44:40,636 --> 00:44:43,555
‎아주 소수의 인원으로
‎다수의 로봇들을

576
00:44:43,639 --> 00:44:46,558
‎조종하는 상황이 오길 바랍니다

577
00:44:47,851 --> 00:44:50,854
‎나중에는 천 대까지도
‎무리가 없을 거예요

578
00:44:51,355 --> 00:44:54,942
‎각각의 개체가
‎스스로 알아서 움직인다면

579
00:44:55,025 --> 00:44:56,443
‎몇 대인들 불가능하겠어요?

580
00:44:57,027 --> 00:44:59,071
‎학습 정도를 조정할 수 있으면…

581
00:44:59,154 --> 00:45:03,325
‎저희는 상당 기간
‎스워밍 시뮬레이션을 거쳤고

582
00:45:03,409 --> 00:45:06,829
‎이제는 실제 기체에
‎적용할 때가 왔어요

583
00:45:07,329 --> 00:45:12,042
‎한 네트워크에서 로봇 3기를 묶어
‎동시에 활동시켜 보고

584
00:45:12,126 --> 00:45:15,129
‎그 후에 기능을
‎차차 추가하려고 해요

585
00:45:15,879 --> 00:45:18,549
‎비교적 소규모의 시스템에서
‎시험해 보고

586
00:45:18,632 --> 00:45:22,261
‎같은 개념을 더 큰 시스템에
‎적용하고 싶어요

587
00:45:22,344 --> 00:45:23,679
‎전투기라든지요

588
00:45:24,596 --> 00:45:26,014
‎우린 그런 논의를 많이 해요

589
00:45:26,098 --> 00:45:31,937
‎일개 소대에 대대급 전투력을
‎부여할 방법이 무엇인지

590
00:45:34,982 --> 00:45:39,528
‎혹은 일개 대대에 여단급 전투력을
‎부여할 방법은 무엇인지 고민하죠

591
00:45:39,611 --> 00:45:41,488
‎그 답은 스워밍에 있어요

592
00:45:42,614 --> 00:45:45,200
‎스워밍의 힘을 차지하는 순간

593
00:45:45,284 --> 00:45:48,078
‎군사적 침략에 맞설
‎새로운 전략적 억지력이

594
00:45:48,162 --> 00:45:49,455
‎창출되는 것이죠

595
00:45:52,332 --> 00:45:57,004
‎우리가 이 일을 제대로 해낸다면
‎얼마나 많은 청년들의 생명을

596
00:45:57,087 --> 00:46:00,299
‎구할 수 있을지
‎그 기대감이 엄청납니다

597
00:46:01,091 --> 00:46:03,594
‎인간의 목숨 대신

598
00:46:04,553 --> 00:46:05,846
‎기계로 승부하게 되죠

599
00:46:06,638 --> 00:46:10,893
‎일부에서는 자율 무기를 쓰면
‎전쟁이 더 정밀해지고

600
00:46:10,976 --> 00:46:12,311
‎인도적으로 바뀐다고 주장해요

601
00:46:12,853 --> 00:46:15,397
‎하지만 자율 무기가 전쟁 양상을

602
00:46:15,481 --> 00:46:19,443
‎실제로 어떻게 바꿀지
‎정확히 예견하기는 어렵습니다

603
00:46:21,320 --> 00:46:23,238
‎개틀링 기관총이
‎개발됐을 때처럼요

604
00:46:25,073 --> 00:46:26,700
‎리처드 개틀링은 발명가였어요

605
00:46:27,201 --> 00:46:30,954
‎남북전쟁에서 부상을 당해
‎귀향하는 군인들을 보면서

606
00:46:32,289 --> 00:46:35,292
‎전쟁을 더욱 인도적으로
‎바꿀 방법을 찾고 싶어졌죠

607
00:46:36,293 --> 00:46:39,797
‎전사하는 군인의 숫자를
‎줄이고자 했어요

608
00:46:40,422 --> 00:46:42,633
‎참전하는 군인의 숫자를
‎줄여서 말이죠

609
00:46:44,092 --> 00:46:45,969
‎그래서 발명한 게
‎개틀링 기관총이에요

610
00:46:46,053 --> 00:46:50,516
‎손잡이를 돌려서 작동하는 식으로
‎발사 과정을 자동화한 총기죠

611
00:46:53,268 --> 00:46:57,981
‎군인이 가할 수 있는 화력을
‎100배 증가시켰습니다

612
00:47:01,235 --> 00:47:05,239
‎전쟁을 더 정밀하고
‎인도적으로 만들려는 시도가

613
00:47:06,490 --> 00:47:07,991
‎반대 결과를 낳는 경우가 많아요

614
00:47:10,160 --> 00:47:14,540
‎드론 한 대가 어느 시골 동네를
‎실수로 공격한다고 가정해 보죠

615
00:47:14,623 --> 00:47:18,544
‎지역 주민들이 미국과 지방 정부에
‎반감을 갖는 결과를 초래할 겁니다

616
00:47:18,627 --> 00:47:20,712
‎정의의 편이라는 미국에요

617
00:47:22,589 --> 00:47:25,008
‎그 드론이 1천 대가 된다고
‎상상해 보세요

618
00:47:26,802 --> 00:47:28,720
‎무기 체계를 만들었는데

619
00:47:28,804 --> 00:47:31,890
‎저비용에, 확장성이 좋고

620
00:47:31,974 --> 00:47:34,560
‎조종 인력이 따로 필요 없다면

621
00:47:34,643 --> 00:47:37,896
‎분쟁의 진입 장벽 자체가
‎대대적으로 변하는 거예요

622
00:47:40,107 --> 00:47:44,486
‎언제 어디서나 전쟁이 일어나는
‎시대라고 생각하면 잠이 안 와요

623
00:47:44,987 --> 00:47:48,657
‎게다가 전쟁의 인적, 경제적
‎부담을 떠안지 않아도 돼요

624
00:47:48,740 --> 00:47:51,410
‎우리와 굉장히 멀리
‎떨어져 있거든요

625
00:47:52,369 --> 00:47:54,037
‎살상당하는 목숨들이요

626
00:47:59,501 --> 00:48:00,794
‎그 생각이 떠나질 않아요

627
00:48:02,212 --> 00:48:05,924
‎인공 지능이 오남용되는 사례를
‎찾으려 했을 뿐인데

628
00:48:06,800 --> 00:48:10,888
‎쉽게 생각했던 실험에서 비롯된
‎예상치 못한 후폭풍이

629
00:48:10,971 --> 00:48:12,848
‎너무나 셌어요

630
00:48:13,348 --> 00:48:16,226
‎"신약 개발용 AI
‎득보다 큰 실을 막는 법"

631
00:48:17,352 --> 00:48:18,729
‎AI 기술로 개발한

632
00:48:18,812 --> 00:48:22,107
‎독극물 분자에 관해 발표하자

633
00:48:22,608 --> 00:48:24,318
‎청중은 경악했어요

634
00:48:25,402 --> 00:48:27,613
‎"상위 5천 개의 화합물 중엔
‎이미 알려진 VX 유사체와…"

635
00:48:29,406 --> 00:48:33,577
‎다음으로 이 정보를 공개할지
‎결단을 내려야 했어요

636
00:48:34,912 --> 00:48:39,166
‎AI에 이런 능력이 있다고
‎세상에 경고해야 하는 건지

637
00:48:39,249 --> 00:48:44,087
‎이런 걸 예상도 못 했던 이들에게
‎괜히 알려주는 건 아닌지 고민했죠

638
00:48:46,381 --> 00:48:48,133
‎결국은 발표하기로 했어요

639
00:48:48,216 --> 00:48:52,679
‎이런 종류의 AI가 오남용되기 전에
‎폐해를 줄일 방법을 찾는 게

640
00:48:52,763 --> 00:48:54,139
‎의미가 있을 거라고요

641
00:48:54,222 --> 00:48:56,975
‎"신약 개발 AI의 이중 용도"

642
00:48:57,559 --> 00:48:58,936
‎"신약 개발 인공 지능(AI) 기술이"

643
00:48:59,019 --> 00:49:01,813
‎"생화학 무기 드노보 합성에
‎오남용될 가능성"

644
00:49:01,897 --> 00:49:04,775
‎일반 대중의 반응은
‎충격적이었어요

645
00:49:07,194 --> 00:49:10,656
‎특정 페이지에 얼마나 많은 사람이
‎접속했는지 알 수 있는데

646
00:49:10,739 --> 00:49:14,451
‎평소 저희가 쓰는 종류의 논문은
‎운이 좋아 봤자

647
00:49:14,534 --> 00:49:19,831
‎1년이나 몇 년에 걸쳐
‎몇천 명이 보는 게 전부예요

648
00:49:19,915 --> 00:49:22,084
‎일주일 안에 1만 명이
‎논문을 읽었어요

649
00:49:22,167 --> 00:49:25,337
‎곧 2만이 되고, 3만이 되고
‎4만으로 올라갔죠

650
00:49:25,837 --> 00:49:28,715
‎하루에 1만 명까지 들어왔어요

651
00:49:28,799 --> 00:49:30,258
‎"신약 프로그램으로
‎화학 무기 만들기"

652
00:49:30,342 --> 00:49:33,512
‎'이코노미스트'에 나오고
‎'파이낸셜타임스'에 나왔어요

653
00:49:35,639 --> 00:49:39,977
‎라디오랩에서 연락이 왔어요
‎저도 듣던 방송이거든요!

654
00:49:41,937 --> 00:49:45,899
‎그런데 그 후의 반응은
‎감당이 안 되더군요

655
00:49:49,778 --> 00:49:53,532
‎트위터를 보니까 이래요
‎'더 끔찍한 짓을 하는 거 아니야?'

656
00:49:54,324 --> 00:49:55,993
‎'얘네들 이런 걸 왜 했지?'

657
00:49:56,076 --> 00:49:57,411
‎"이렇게 불길한 논문은 처음 봄"

658
00:49:57,911 --> 00:50:01,081
‎"이 연구실 놈들 때문에
‎우리 다 죽겠어"

659
00:50:01,164 --> 00:50:04,501
‎그러던 중 전혀 의외인 곳에서
‎초대장이 왔어요

660
00:50:08,797 --> 00:50:12,926
‎그 논문을 놓고 백악관 내부에서
‎얘기가 많았대요

661
00:50:13,010 --> 00:50:15,345
‎저희에게 급히
‎대화를 하자고 했어요

662
00:50:18,849 --> 00:50:23,020
‎그 높은 곳에 계신 분들과
‎이야기한다는 건 큰 영광이죠

663
00:50:23,603 --> 00:50:25,272
‎그러다 갑자기 뜨악했어요

664
00:50:25,355 --> 00:50:28,900
‎'맙소사, 백악관이라니
‎진짜 보스잖아'

665
00:50:29,693 --> 00:50:33,196
‎오픈 소스의 데이터 세트를
‎입력해 얻은…

666
00:50:33,280 --> 00:50:37,701
‎6시간 후, 모델에서
‎4만 개가 넘는…

667
00:50:37,784 --> 00:50:41,038
‎컴퓨터 성능이 어느 정도
‎돼야 하는지 물어보더군요

668
00:50:41,872 --> 00:50:43,832
‎특별한 장비까지
‎필요 없다고 얘기했어요

669
00:50:44,332 --> 00:50:48,211
‎그냥 흔히 구할 수 있는
‎6년 된 맥이었다고요

670
00:50:49,546 --> 00:50:51,256
‎그 말에 그쪽은 넋이 나갔죠

671
00:50:54,968 --> 00:50:59,473
‎화학전 관련 약물 분야를
‎담당하는 사람들과

672
00:50:59,556 --> 00:51:04,019
‎정부 기관에서 이런 가능성을
‎전혀 모르고 있었어요

673
00:51:06,605 --> 00:51:09,816
‎화학 무기를 만들 레시피 책을
‎저희가 갖고 있는데

674
00:51:10,650 --> 00:51:15,572
‎악의적인 의도를 가진
‎나쁜 세력의 손에 들어간다면

675
00:51:16,573 --> 00:51:18,992
‎너무나 끔찍한 결과를
‎낳을 수 있죠

676
00:51:21,703 --> 00:51:23,205
‎다들 정신 바짝 차리고 집중해서

677
00:51:23,288 --> 00:51:26,458
‎이 기술이 남용되지 않도록
‎규제하거나

678
00:51:27,250 --> 00:51:30,670
‎고삐를 매기 위한 수순을
‎밟아야 해요

679
00:51:31,880 --> 00:51:35,175
‎이게 초래할 치명성은

680
00:51:36,176 --> 00:51:37,344
‎끔찍하거든요

681
00:51:40,680 --> 00:51:45,977
‎AI 윤리에 관한 의문을
‎주로 제기하는 건 사회예요

682
00:51:46,561 --> 00:51:50,273
‎엔지니어나 기술자
‎수학자가 하는 게 아니죠

683
00:51:52,484 --> 00:51:56,822
‎우리가 선보이는 모든 기술과
‎새로운 혁신은

684
00:51:56,905 --> 00:52:00,617
‎사회가 합당하게 생각하는
‎사용 범주 안에 있을 때 허용돼요

685
00:52:01,201 --> 00:52:02,911
‎"국방부, 인공 지능 관련
‎윤리 원칙 도입"

686
00:52:03,036 --> 00:52:06,498
‎현재 국방부는

687
00:52:06,581 --> 00:52:09,960
‎'전장에서 무언가를
‎살상하라고 명령하는 주체는'

688
00:52:10,043 --> 00:52:11,920
‎'오로지 인간뿐'이라고 말해요

689
00:52:12,504 --> 00:52:14,548
‎살상을 행하는 건
‎기계일 수 있으나

690
00:52:15,674 --> 00:52:18,927
‎인간 조종자의
‎명령이 있어야만 가능합니다

691
00:52:19,636 --> 00:52:21,429
‎이 원칙이 바뀌는 일은
‎절대 없을 겁니다

692
00:52:24,808 --> 00:52:28,103
‎이런 기술은 안전하다고
‎우리를 안심시켜요

693
00:52:29,729 --> 00:52:33,692
‎하지만 미군은
‎드론 전쟁과 관련해서

694
00:52:33,775 --> 00:52:35,485
‎신뢰할 만한 명망을
‎쌓지 못했습니다

695
00:52:36,820 --> 00:52:41,783
‎AI와 관련해
‎미군을 신뢰할지의 여부는

696
00:52:41,867 --> 00:52:44,953
‎과거 기록을 보면
‎답이 나오지 않나 싶어요

697
00:52:46,288 --> 00:52:50,125
‎자율 무기 사용에 관한
‎미 국방부의 방침은

698
00:52:50,208 --> 00:52:52,919
‎어떠한 무기 체계도
‎금지하지 않는다는 입장이에요

699
00:52:53,003 --> 00:52:56,715
‎군대에서는 자율 무기를
‎원치 않는다고 할지라도

700
00:52:56,798 --> 00:53:00,177
‎경쟁국과 보조를 맞추기 위해

701
00:53:00,260 --> 00:53:03,680
‎기계에 더 많은 결정을
‎위임하는 사례를 볼 수 있죠

702
00:53:04,764 --> 00:53:08,351
‎군이 원치 않더라도
‎자율 무기에 결정을 맡기는 추세로

703
00:53:08,435 --> 00:53:09,978
‎갈 수 있다는 거예요

704
00:53:12,022 --> 00:53:16,693
‎푸틴은 'AI 선두 주자가
‎세계를 지배하게 된다'고 말했어요

705
00:53:17,736 --> 00:53:23,325
‎시진핑 주석은 중국이
‎지배하고 싶은 최우선 기술 분야가

706
00:53:23,408 --> 00:53:25,702
‎AI라고 공언한 바 있습니다

707
00:53:26,786 --> 00:53:29,831
‎우리가 기술 경쟁의 시대를
‎살고 있는 건 분명합니다

708
00:53:33,501 --> 00:53:35,670
‎사람들은 가드레일이
‎필요하다는 말을 해요

709
00:53:36,463 --> 00:53:39,424
‎저도 누군가는 그런 일을
‎해야 된다고 믿습니다

710
00:53:40,467 --> 00:53:45,180
‎그러나 지금 AI의 주도권을 두고
‎치열한 경쟁이 펼쳐지고 있어요

711
00:53:47,265 --> 00:53:51,603
‎중국이든 러시아든 이란이든
‎우리의 적국은

712
00:53:52,187 --> 00:53:56,566
‎미국의 AI 관련 정책이 뭐든
‎신경도 쓰지 않을 겁니다

713
00:54:00,820 --> 00:54:04,324
‎AI 정책 관련된 논의가
‎훨씬 늘어나는 게 보여요

714
00:54:06,117 --> 00:54:09,287
‎하지만 저는 더 많은 지도자가
‎얼마나 더 빨리

715
00:54:09,371 --> 00:54:11,706
‎이 시스템을 구축할 수 있는지
‎물어주면 좋겠어요

716
00:54:12,707 --> 00:54:15,168
‎자원을 더 투입해서 완성하자고요

717
00:54:16,419 --> 00:54:18,838
‎"워싱턴 DC"

718
00:54:18,922 --> 00:54:21,299
‎"AUSA
‎연례 회의 및 박람회"

719
00:54:24,177 --> 00:54:26,805
‎"미 육군"

720
00:54:33,478 --> 00:54:38,358
‎저희는 AUSA가 매해 주최하는
‎가장 큰 규모의 견본시에 왔어요

721
00:54:39,609 --> 00:54:44,572
‎군에 제품이나 기술을
‎판매하는 모든 업체가

722
00:54:44,656 --> 00:54:46,616
‎참가하는 박람회죠

723
00:54:47,701 --> 00:54:50,537
‎틴들 공군기지에
‎저희 로봇 4기가 있는데

724
00:54:50,620 --> 00:54:53,748
‎1일 24시간, 하루도 쉬지 않고
‎기지를 순찰합니다

725
00:54:55,750 --> 00:54:59,462
‎뭐든 추가할 수 있어요
‎카메라나 센서도 되고

726
00:54:59,546 --> 00:55:01,298
‎필요한 건 다 되죠
‎조작기 팔도 달고요

727
00:55:01,381 --> 00:55:02,632
‎"마이클 수브한
‎고스트 로보틱스"

728
00:55:02,716 --> 00:55:05,135
‎고객이 생각하는 모든 임무를
‎완수하도록 하죠

729
00:55:06,678 --> 00:55:08,346
‎적이 AI를 도입하면 어떨까요?

730
00:55:09,431 --> 00:55:12,976
‎인간보다 더 빨리 판단하고
‎더 빨리 반응하는 전투 시스템이

731
00:55:13,059 --> 00:55:16,062
‎적에게 있다면요?
‎우리도 대비해야죠

732
00:55:17,605 --> 00:55:21,359
‎저희가 육성하는 시스템은
‎적의 정보를 수집하고

733
00:55:22,027 --> 00:55:26,531
‎인간이 살상 명령 전반을
‎관리하는 가운데 표적에 대응해요

734
00:55:31,202 --> 00:55:33,204
‎"실드AI"

735
00:55:33,288 --> 00:55:34,956
‎- 장군님, 브랜던 쳉입니다
‎- 잘 지내죠?

736
00:55:35,040 --> 00:55:36,416
‎네, 안녕하십니까?

737
00:55:37,709 --> 00:55:40,962
‎AI 파일럿에 누구보다
‎많이 투자하고 있습니다

738
00:55:41,046 --> 00:55:42,630
‎저희 AI 파일럿 이름은
‎하이브마인드로

739
00:55:43,298 --> 00:55:47,135
‎쿼드콥터 노바에 설치했습니다
‎건물 내부로 진입해

740
00:55:47,218 --> 00:55:50,805
‎특수부대나 보병대원에 앞서
‎현장을 탐색하는 일을 하죠

741
00:55:50,889 --> 00:55:52,891
‎하이브마인드를
‎V-BAT에도 도입했습니다

742
00:55:52,974 --> 00:55:56,811
‎수백 기를 한 팀으로
‎운용할 계획입니다

743
00:55:56,895 --> 00:55:58,730
‎타이완 해협이나

744
00:55:58,813 --> 00:56:01,608
‎우크라이나에 보내
‎적을 제압할 수 있죠

745
00:56:01,691 --> 00:56:03,360
‎아주 기대가 큽니다

746
00:56:03,943 --> 00:56:06,196
‎- 그렇군요, 고맙습니다
‎- 감사합니다, 장군님

747
00:56:07,989 --> 00:56:13,370
‎AI 파일럿은 2025년이나 2030년쯤
‎흔하게 사용될 겁니다

748
00:56:14,204 --> 00:56:17,582
‎세계 각국 군대에 도입되는 건
‎시간문제예요

749
00:56:19,250 --> 00:56:22,962
‎루마니아 군대와는 어떻게 됐죠?
‎무인기 쪽 사람이었나요?

750
00:56:23,046 --> 00:56:24,589
‎군대 내 첨단기술 담당이었죠

751
00:56:25,256 --> 00:56:29,803
‎현재까지 AI 파일럿 설계에
‎5억 달러를 투입했어요

752
00:56:29,886 --> 00:56:33,181
‎앞으로 5년간 10억 달러를
‎더 투자할 계획이고요

753
00:56:33,264 --> 00:56:37,769
‎그러다 보니 미국 내에서
‎정부 수주 실적이 좋죠

754
00:56:37,852 --> 00:56:38,853
‎훌륭해요

755
00:56:38,937 --> 00:56:42,732
‎아주 인상적입니다
‎무기화하는 데도 성공했나요?

756
00:56:43,650 --> 00:56:45,568
‎이건 아직 무기화 단계는 아닙니다

757
00:56:45,652 --> 00:56:48,321
‎아직은 아니지만
‎추후에는 그렇게 해야죠

758
00:56:48,905 --> 00:56:52,534
‎고객들은 이걸 트럭으로 보지만
‎저희는 스마트 트럭으로 생각해요

759
00:56:52,617 --> 00:56:54,452
‎할 수 있는 게 아주 많죠

760
00:56:54,536 --> 00:56:55,703
‎- 고마워요
‎- 네

761
00:56:55,787 --> 00:56:57,914
‎계속 연락드리겠습니다

762
00:57:01,668 --> 00:57:04,129
‎10년 후에 다시 오면

763
00:57:04,212 --> 00:57:10,802
‎AI와 자율 기술이 시장 전체를
‎지배하는 모습을 볼 겁니다

764
00:57:14,889 --> 00:57:19,352
‎AI와 자율 기술이
‎탄탄히 받쳐주는 군대가

765
00:57:19,436 --> 00:57:25,108
‎그렇지 않은 군대에 완승을 거두고
‎압도하고 파괴할 거예요

766
00:57:26,401 --> 00:57:30,780
‎말과 탱크의 대결 같은
‎양상이 될 거고

767
00:57:31,781 --> 00:57:34,367
‎칼 든 사람과 기관총 든 사람의
‎대결과도 같겠죠

768
00:57:34,909 --> 00:57:37,120
‎전혀 상대가 안 될 겁니다

769
00:57:38,746 --> 00:57:42,750
‎흔한 기술이 될 거예요
‎모든 전투에 광범위하게 쓰이고

770
00:57:43,585 --> 00:57:44,836
‎전술 단계에서나

771
00:57:45,336 --> 00:57:46,546
‎전략 단계에서나

772
00:57:47,172 --> 00:57:50,800
‎이 시대 사람들은 상상조차
‎못 할 속도로 활용될 겁니다

773
00:57:53,094 --> 00:57:57,098
‎지휘관들은 현재도
‎과도한 정보에 압도당한 상태예요

774
00:57:57,599 --> 00:58:01,019
‎위성 사진, 드론, 감지기 등
‎정보가 쏟아지죠

775
00:58:02,103 --> 00:58:03,396
‎AI의 특기 중 하나가

776
00:58:03,480 --> 00:58:06,774
‎지휘관이 현재 상황을
‎빨리 이해하도록 돕는 겁니다

777
00:58:07,650 --> 00:58:09,903
‎어떤 결정을 내려야 하는지도
‎도와주죠

778
00:58:11,237 --> 00:58:12,530
‎인공 지능은

779
00:58:12,614 --> 00:58:17,702
‎전쟁이 치러지는 방식이 결정되는
‎모든 요인을 고려하여

780
00:58:18,286 --> 00:58:20,246
‎전략을 수립하고…

781
00:58:22,540 --> 00:58:25,668
‎전투에서 승리할 방법을
‎조언할 거예요

782
00:58:30,256 --> 00:58:32,133
‎"서퍽
‎버지니아주"

783
00:58:32,217 --> 00:58:34,344
‎"록히드마틴 혁신 센터"

784
00:58:36,971 --> 00:58:40,266
‎저희 록히드마틴은
‎고객사인 국방부처럼

785
00:58:40,350 --> 00:58:45,104
‎인공 지능을 지휘 통제의
‎핵심 기술 조력자로 보고 있습니다

786
00:58:47,065 --> 00:58:50,109
‎확산율은 초당 평균 0.6m입니다

787
00:58:50,193 --> 00:58:52,278
‎이 주변이 대략 3,000m²예요

788
00:58:52,779 --> 00:58:55,782
‎전쟁의 불확실성이 현실적인
‎문제인 건 국방 측면뿐 아니라

789
00:58:57,158 --> 00:58:59,577
‎환경적인 측면에서도 비슷합니다

790
00:58:59,661 --> 00:59:03,206
‎산불 등의 상황에서
‎결정을 내려야 할 때가 그렇죠

791
00:59:03,289 --> 00:59:06,543
‎워시번 화재는 와워나 시
‎북쪽 경계에서 발생했습니다

792
00:59:06,626 --> 00:59:09,629
‎불완전한 정보로
‎결정을 내려야 해요

793
00:59:10,630 --> 00:59:14,300
‎그런 전쟁의 불확실성 속에
‎AI에 어떤 점을 지원받을까요?

794
00:59:17,637 --> 00:59:19,597
‎산불은 종잡을 수가 없습니다

795
00:59:20,181 --> 00:59:21,266
‎아주 복잡하죠

796
00:59:22,267 --> 00:59:26,354
‎그래서 저희는 AI를 활용해
‎의사 결정에 도움을 받기 위해

797
00:59:26,437 --> 00:59:27,855
‎연구 중입니다

798
00:59:31,442 --> 00:59:33,987
‎저희가 만들고 있는
‎인지임무관리자라는 프로그램으로

799
00:59:34,070 --> 00:59:37,949
‎적외선 항공 영상을 촬영하고

800
00:59:38,032 --> 00:59:41,786
‎자체 AI 알고리즘으로 분석해

801
00:59:41,869 --> 00:59:45,248
‎화재의 추후 양상을
‎예측할 수 있어요

802
00:59:48,042 --> 00:59:49,794
‎미래에는

803
00:59:49,877 --> 00:59:52,922
‎인지임무관리자가
‎시뮬레이션을 구동하고

804
00:59:53,006 --> 00:59:57,093
‎여러 시나리오를
‎수천 번씩 운용한 뒤

805
00:59:57,176 --> 01:00:00,722
‎자원을 가장 효율적으로
‎배치하는 방식을 제안하게 해

806
01:00:00,805 --> 01:00:04,058
‎화재 집중 지역의
‎재난을 방지할 겁니다

807
01:00:08,062 --> 01:00:12,400
‎'이 지점은 파이어호크로
‎공중 진화를 실시하라'든가

808
01:00:13,568 --> 01:00:15,903
‎'지상 인력을 보내
‎덤불을 제거하게 하고'

809
01:00:16,946 --> 01:00:19,032
‎'소방관들이 물을 뿌린 뒤'

810
01:00:19,657 --> 01:00:23,077
‎'가장 시급한 지역으로
‎이동시키라'고 할 겁니다

811
01:00:26,289 --> 01:00:31,044
‎이런 결정이 전보다 신속하고
‎효율적으로 내려질 수 있겠죠

812
01:00:35,840 --> 01:00:38,468
‎저희는 인간이
‎끝없이 변화하는 환경을

813
01:00:38,551 --> 01:00:42,305
‎따라잡도록 하는
‎특별한 조력자가 AI라고 봅니다

814
01:00:43,389 --> 01:00:46,517
‎록히드마틴은 국방 분야에서

815
01:00:46,601 --> 01:00:50,355
‎비슷한 활동을
‎상당히 많이 해 왔죠

816
01:00:52,231 --> 01:00:55,860
‎군의 말을 들어보면
‎AI와 해당 무기 체계를

817
01:00:55,943 --> 01:01:00,323
‎표적을 찾고 제거하는 데만
‎쓸 생각이 아니에요

818
01:01:00,865 --> 01:01:05,787
‎군의 의사 결정 구조 전체에
‎AI를 결합하려고 하죠

819
01:01:09,457 --> 01:01:12,960
‎육군은 '컨버전스 계획'이란
‎초대형 프로젝트를 진행 중이에요

820
01:01:14,545 --> 01:01:16,589
‎해군에는 '오버매치'가 있고요

821
01:01:16,673 --> 01:01:19,592
‎공군은 '어드밴스드 배틀
‎매니지먼트 시스템'이 있죠

822
01:01:21,886 --> 01:01:24,138
‎국방부의 관심은 이겁니다

823
01:01:24,222 --> 01:01:26,683
‎'어떻게 하면
‎이 모든 조각을 조립해'

824
01:01:26,766 --> 01:01:29,268
‎'적보다 빨리 작전을 수행하고'

825
01:01:30,395 --> 01:01:32,355
‎'확실히 우위에 설 수 있을까?'

826
01:01:33,481 --> 01:01:37,527
‎AI 전투 지휘관은 전투를 책임지는

827
01:01:37,610 --> 01:01:39,821
‎고위 장성급 지위를 가질 거예요

828
01:01:41,155 --> 01:01:44,158
‎대규모 병력에
‎명령 내리는 걸 지원하고

829
01:01:45,118 --> 01:01:49,247
‎배치된 모든 무기의
‎활동을 조율하겠죠

830
01:01:49,330 --> 01:01:51,958
‎그 속도는 사람이
‎따라잡지 못할 정도일 거고요

831
01:01:53,543 --> 01:01:55,294
‎우리는 지난 70년간

832
01:01:55,378 --> 01:01:58,798
‎세계에서 가장 발전한 군대를
‎육성했습니다

833
01:01:58,881 --> 01:02:01,217
‎그리고 이제 그 조직의 지휘권을

834
01:02:01,300 --> 01:02:04,595
‎알고리즘과 소프트웨어에 이양할지

835
01:02:05,430 --> 01:02:07,598
‎결정해야 하는 때를 맞았죠

836
01:02:10,351 --> 01:02:13,187
‎그 결정에 따라

837
01:02:13,271 --> 01:02:16,774
‎우리 무기고의 비축량 전체를
‎발사하는 결과가 나올 수도 있어요

838
01:02:16,858 --> 01:02:19,902
‎히로시마 하나가 아니라
‎수백 곳에서 터질 수 있죠

839
01:02:25,616 --> 01:02:27,869
‎우리가 행동해야 할 시대입니다

840
01:02:27,952 --> 01:02:33,166
‎이런 위험을 가둘 기회의 창이
‎빠르게 닫히고 있거든요

841
01:02:34,041 --> 01:02:35,042
‎"UN
‎2021년 9월 27일"

842
01:02:35,126 --> 01:02:37,170
‎오늘 오후에는

843
01:02:37,253 --> 01:02:41,132
‎자율 살상 무기 체계 분야의
‎신기술 발전이 초래한

844
01:02:41,215 --> 01:02:44,343
‎국제 안보 위기 얘기로
‎시작할까 합니다

845
01:02:44,427 --> 01:02:46,304
‎UN 내에서 논의가 계속되고 있어요

846
01:02:46,387 --> 01:02:47,722
‎"러시아"

847
01:02:47,805 --> 01:02:50,016
‎자율 살상 무기의 위협과

848
01:02:50,600 --> 01:02:54,729
‎인간 표적 설정에
‎AI를 활용하는 시스템에 대한

849
01:02:54,812 --> 01:02:56,564
‎금지 규정에 대해서요

850
01:02:56,647 --> 01:03:00,777
‎기술 전문가 사이에는
‎뚜렷한 공통적 인식이 있습니다

851
01:03:00,860 --> 01:03:04,030
‎우리는 자율 무기가 인간을
‎표적으로 삼는 데 반대합니다

852
01:03:05,615 --> 01:03:08,993
‎세계 각국은 오랫동안
‎자율 살상 무기 체계에 관한

853
01:03:09,076 --> 01:03:11,329
‎논의를 지원해 왔습니다

854
01:03:12,288 --> 01:03:16,793
‎안전에 관해서는
‎공통적인 공감대가 있어요

855
01:03:17,794 --> 01:03:20,546
‎하지만 물론 간단치가 않습니다

856
01:03:21,297 --> 01:03:25,968
‎군사력을 가진 특정 국가들은

857
01:03:26,052 --> 01:03:27,762
‎흐름을 앞질러 가고자 하죠

858
01:03:28,429 --> 01:03:31,599
‎그래야 적국을
‎앞지를 수 있으니까요

859
01:03:32,600 --> 01:03:36,187
‎뭐라도 하려면 모두의 동의가
‎있어야 한다는 게 문제예요

860
01:03:36,896 --> 01:03:39,065
‎최소 한 나라는 반대할 테고

861
01:03:39,148 --> 01:03:43,236
‎미국과 러시아는 이미
‎자율 무기를 금지하는 조약에

862
01:03:43,319 --> 01:03:45,655
‎반대한다는 뜻을 공표했어요

863
01:03:47,198 --> 01:03:53,204
‎더 강력한 AI를 만드는 일을 하는
‎사람이 얼마나 될까요?

864
01:03:54,747 --> 01:03:56,457
‎엄청날 거예요

865
01:03:57,750 --> 01:04:02,880
‎안전한 AI를 만들려고
‎애쓰는 사람들 숫자는요?

866
01:04:04,340 --> 01:04:07,510
‎그쪽엔 사람이 별로 없겠죠

867
01:04:11,764 --> 01:04:13,724
‎그래도 저는 정말
‎낙관적으로 생각해요

868
01:04:16,060 --> 01:04:19,480
‎생물무기금지협약이 좋은 예죠

869
01:04:19,564 --> 01:04:22,358
‎냉전 한복판에 일어난 일이었어요

870
01:04:23,025 --> 01:04:27,655
‎소련과 미국의 긴장 속에서도
‎협약이 체결됐죠

871
01:04:29,156 --> 01:04:33,536
‎생물무기 개발이 양국 모두에게

872
01:04:33,619 --> 01:04:36,247
‎최선이 아니란 걸 인식했고

873
01:04:36,330 --> 01:04:38,749
‎전 세계에 있어서도
‎득 될 게 없다는 걸 알았어요

874
01:04:41,335 --> 01:04:44,714
‎무기 경쟁의 역학은
‎안전보다 속도에 초점이 맞춰져요

875
01:04:45,715 --> 01:04:48,342
‎그러나 고려해야 할
‎중요한 점이 있어요

876
01:04:48,426 --> 01:04:52,430
‎빠른 움직임을 위해 치르는 대가가
‎너무 과도해 보일 때가 올 겁니다

877
01:04:56,225 --> 01:04:59,270
‎우리끼리만 외곬으로 개발해서

878
01:05:00,021 --> 01:05:03,357
‎미래에 어떻게 쓰일지 아랑곳 않고

879
01:05:03,441 --> 01:05:06,611
‎세상에 내놓을 수는 없습니다

880
01:05:07,862 --> 01:05:10,823
‎핵폭탄이 터지는
‎그 순간을 막아야죠

881
01:05:14,577 --> 01:05:17,705
‎AI 경쟁에
‎너무 많은 것이 걸려 있어요

882
01:05:18,289 --> 01:05:22,001
‎지난 75년간
‎압도적인 군사력이 있었기에

883
01:05:22,084 --> 01:05:28,174
‎국제 정세의 안정이
‎이뤄질 수 있었다는 사실을

884
01:05:28,257 --> 01:05:31,135
‎아는 사람이 많지 않은 것 같아요

885
01:05:32,887 --> 01:05:35,681
‎그래서 미국과 우리 동맹국들이

886
01:05:36,557 --> 01:05:38,684
‎적국의 AI를 앞질러야만 합니다

887
01:05:43,314 --> 01:05:44,774
‎전쟁에 2위는 없어요

888
01:05:45,524 --> 01:05:49,111
‎중국은 2030년까지 AI 분야의
‎세계 리더가 되는 야심 찬 계획을…

889
01:05:49,195 --> 01:05:51,656
‎미국이 진 경쟁이란 의견도 있죠

890
01:05:52,740 --> 01:05:56,160
‎군사적 경쟁 우위를 확보하기 위해

891
01:05:56,243 --> 01:05:59,246
‎인공 지능 도입을 가속화할 겁니다

892
01:06:02,875 --> 01:06:05,461
‎우리는 이 기술과 함께
‎미래로 달려가고 있어요

893
01:06:05,544 --> 01:06:08,673
‎우리가 어디까지 갈지는
‎아무도 모른다고 생각합니다

894
01:06:09,507 --> 01:06:12,760
‎우리가 기술을 지배할까요?
‎기술이 우리를 지배할까요?

895
01:06:14,136 --> 01:06:16,973
‎실수를 만회할 기회는 오지 않아요

896
01:06:17,807 --> 01:06:20,977
‎지니가 램프에서 나오면
‎그걸로 끝이죠

897
01:06:22,019 --> 01:06:25,189
‎다시 집어넣기란
‎너무나 어려울 겁니다

898
01:06:28,609 --> 01:06:31,737
‎지금 행동하지 않으면 늦어요

899
01:06:33,114 --> 01:06:34,657
‎어쩌면 이미 늦었는지도 몰라요

900
01:08:48,124 --> 01:08:53,254
‎자막: 서지민



