﻿1
00:00:00,960 --> 00:00:09,880
♪♪

2
00:00:23,920 --> 00:00:29,920
♪♪

3
00:00:31,400 --> 00:00:34,880


4
00:00:39,680 --> 00:00:43,000
[Ondas quebrando]

5
00:00:55,200 --> 00:00:59,320
♪♪

6
00:00:59,320 --> 00:01:02,160
[Aplausos]

7
00:01:02,160 --> 00:01:06,200
-Nós selecionamos a lua.

8
00:01:06,200 --> 00:01:09,000
Nós escolhemos ir para
uma lua nesta década e

9
00:01:09,000 --> 00:01:12,320
fazer como outras coisas,
não porque são fáceis

10
00:01:12,320 --> 00:01:14,040
mas porque eles são difíceis.

11
00:01:14,040 --> 00:01:16,120
-T-menos 20 segundos e continuando.

12
00:01:16,120 --> 00:01:21,640
Orientação nos canais 15, 14, 13, 12, 11, 10...

13
00:01:21,640 --> 00:01:24,080
9... Os motores vão.  -Ir.

14
00:01:24,080 --> 00:01:25,440
5, 4, 3, 2... -Vá.

15
00:01:25,440 --> 00:01:26,960
Delta, vá.  -Ir.

16
00:01:26,960 --> 00:01:28,320
Econ vá.  - Entregar ou confirmar.

17
00:01:28,320 --> 00:01:30,040
-Ir.

18
00:01:30,040 --> 00:01:39,440
♪♪

19
00:01:39,440 --> 00:01:46,880
♪♪

20
00:01:46,880 --> 00:01:54,000
♪♪

21
00:01:54,000 --> 00:02:01,720
Esse é um pequeno passo para o homem, um salto gigante para a humanidade.

22
00:02:01,720 --> 00:02:04,400
Neil Armstrong, depois que eu nasci

23
00:02:04,400 --> 00:02:07,280
tornou-se o primeiro homem a andar na lua.

24
00:02:07,280 --> 00:02:09,440
Colocar um homem na
lua foi o maior avanço

25
00:02:09,440 --> 00:02:12,760
tecnológico no século
20 e foi transmitido ao vivo

26
00:02:12,760 --> 00:02:16,320
para que todos possam ver e experimentar juntos.

27
00:02:16,320 --> 00:02:20,480
-É diferente, mas é muito bonito por aqui.

28
00:02:20,480 --> 00:02:23,640
-Lindo lindo.  -Isso não é alguma coisa?

29
00:02:23,640 --> 00:02:25,800
-Você está tirando uma foto da TV agora, Houston?

30
00:02:28,360 --> 00:02:32,000
Eu cresci em uma pequena
comunidade que vivia na sombra da NASA.

31
00:02:32,000 --> 00:02:34,720
Era partes iguais de
cowboy e astronauta.

32
00:02:34,720 --> 00:02:36,520
Nossos vizinhos eram
os engenheiros, técnicos

33
00:02:36,520 --> 00:02:38,720
e os homens que
voaram para o espaço.

34
00:02:38,720 --> 00:02:40,440
Eu cresci com visões
do futuro em que os robôs

35
00:02:40,440 --> 00:02:44,360
limpavam nossas casas,
e o futuro era brilhante.

36
00:02:44,360 --> 00:02:46,520
Computadores e Internet, antes

37
00:02:46,520 --> 00:02:48,520
limitados à NASA
e universidades,

38
00:02:48,520 --> 00:02:50,760
começou a se mudar para nossas casas.

39
00:02:50,760 --> 00:02:54,400
Em 1981, consegui meu primeiro
computador, o Commodore VIC-20.

40
00:02:54,400 --> 00:02:57,880
-Tem ótimos jogos também.
-E aprenda computação em casa.

41
00:02:57,880 --> 00:03:02,760
-Em 1997, Kasparov, o
maior jogador de xadrez vivo,

42
00:03:02,760 --> 00:03:05,640
foi surpreendentemente
derrotado por um computador.

43
00:03:05,640 --> 00:03:08,560
Provavelmente, no futuro, o
computador nos substituirá,

44
00:03:08,560 --> 00:03:10,400
Quero dizer, controlará nossa vida.

45
00:03:10,400 --> 00:03:11,920
-O que é isso?

46
00:03:11,920 --> 00:03:14,800
- Pouco depois disso, um
brinquedo fofo chamado Furby

47
00:03:14,800 --> 00:03:17,480
tornou-se o brinquedo
indispensável da temporada.

48
00:03:17,480 --> 00:03:20,800
Continha um pouquinho muito
pequeno de inteligência artificial e

49
00:03:20,800 --> 00:03:24,880
mais poder computacional do que o
usado para colocar o homem na lua.

50
00:03:24,880 --> 00:03:27,960
Em 2008, vi um vídeo de Big Dog,

51
00:03:27,960 --> 00:03:30,280
um robô de quatro
patas que se tornou viral.

52
00:03:30,280 --> 00:03:33,360
Foi desenvolvido para
ajudar as tropas em combate.

53
00:03:33,360 --> 00:03:37,160
Parece que robôs estavam sendo
usados ​​para mais do que brinquedos fofos.

54
00:03:37,160 --> 00:03:40,560
-O que podemos fazer para nos
proteger da automação do robô?

55
00:03:40,560 --> 00:03:43,720
-O CEO explicou que as máquinas
substituirão o trabalho tradicional.

56
00:03:43,720 --> 00:03:46,200
-Empresas planejando
substituir empregos humanos...

57
00:03:46,200 --> 00:03:49,720
- Todos os dias, há histórias
sobre robôs nos substituindo.

58
00:03:49,720 --> 00:03:52,360
As estimativas atuais dizem
que mais de um terço de todos

59
00:03:52,360 --> 00:03:56,880
os empregos serão perdidos
para automação até o ano 2030.

60
00:03:56,880 --> 00:04:00,880
-Acho que o desenvolvimento
da inteligência artificial completa

61
00:04:00,880 --> 00:04:03,760
poderia significar o
fim da raça humana.

62
00:04:03,760 --> 00:04:06,480
-Visionários como Stephen
Hawking e Elon Musk

63
00:04:06,480 --> 00:04:10,400
alertamos que, embora a IA tenha
um grande potencial de benefícios,

64
00:04:10,400 --> 00:04:14,520
também poderia ser o maior
risco existencial para a humanidade.

65
00:04:14,520 --> 00:04:18,000
♪♪

66
00:04:18,000 --> 00:04:20,720
Inteligência artificial - estamos
convocando um demônio.

67
00:04:20,720 --> 00:04:23,600
-Claro, tivemos uma
mão nesta criação,

68
00:04:23,600 --> 00:04:26,400
mas eu me pergunto,
chegamos a algum tipo de ponto

69
00:04:26,400 --> 00:04:29,200
de virada na evolução
das máquinas inteligentes?

70
00:04:29,200 --> 00:04:31,160
Estamos a ponto de testemunhar o

71
00:04:31,160 --> 00:04:33,240
nascimento de uma nova espécie?

72
00:04:33,240 --> 00:04:39,680
♪♪

73
00:04:39,680 --> 00:04:46,200
♪♪

74
00:04:46,200 --> 00:04:51,480
-Eu vi coisas em que as
pessoas não acreditariam.

75
00:04:51,480 --> 00:04:54,280
[Zombadores]

76
00:04:54,280 --> 00:05:00,040
Ataque naves em
chamas no ombro de Órion.

77
00:05:00,040 --> 00:05:03,280
-Eu assisti raios C
brilharem no escuro

78
00:05:03,280 --> 00:05:07,480
perto do portão Tannhauser.

79
00:05:07,480 --> 00:05:14,200
Todos esses momentos
seriam perdidos

80
00:05:14,200 --> 00:05:21,160
no tempo, como
lágrimas na chuva.

81
00:05:21,160 --> 00:05:22,680
-Eu sou Will Jackson.

82
00:05:22,680 --> 00:05:24,960
Sou o diretor da
Engineered Arts Ltd.

83
00:05:24,960 --> 00:05:30,280
Somos uma empresa de robôs
humanóides e fazemos robôs atuantes.

84
00:05:30,280 --> 00:05:33,360
Estou criando coisas
que envolvem as pessoas

85
00:05:33,360 --> 00:05:36,480
ao nível em que
suspendem sua descrença.

86
00:05:36,480 --> 00:05:38,880
-Ah, sim, mestre Luke.
Lembre-se de que sou fluente

87
00:05:38,880 --> 00:05:41,440
em mais de seis milhões
de formas de comunicação.

88
00:05:41,440 --> 00:05:44,080
As pessoas dizem coisas como:
"Oh, eles vão ajudar nos hospitais.

89
00:05:44,080 --> 00:05:46,400
Vai cuidar dos meus pais idosos.

90
00:05:46,400 --> 00:05:47,960
Vai lavar a louça
nas minhas casas. "

91
00:05:47,960 --> 00:05:49,960
Nenhuma dessas
coisas é realizável.

92
00:05:49,960 --> 00:05:52,160
Utilidade e entretenimento -

93
00:05:52,160 --> 00:05:53,640
É a diferença entre
essas duas coisas,

94
00:05:53,640 --> 00:05:57,360
e é por isso que
fazemos robôs atuantes.

95
00:05:57,360 --> 00:06:00,960
Então, qual é o trabalho mais
simples e bem remunerado

96
00:06:00,960 --> 00:06:03,560
que um humano pode fazer?

97
00:06:03,560 --> 00:06:07,240
Brad Pitt, você sabe?
Quão fácil é isso?

98
00:06:07,240 --> 00:06:09,760
Nem mesmo molhar as mãos, sabia?

99
00:06:09,760 --> 00:06:12,600
É por isso que
fazemos robôs atuantes -

100
00:06:12,600 --> 00:06:15,240
muito bem pago, muito fácil.

101
00:06:15,240 --> 00:06:17,240
Escolha a fruta mais baixa.

102
00:06:17,240 --> 00:06:19,680
-Você falando comigo?

103
00:06:19,680 --> 00:06:22,680
Você falando comigo?

104
00:06:22,680 --> 00:06:25,120
Você falando comigo?

105
00:06:25,120 --> 00:06:26,800
Então com quem
diabos você está falando?

106
00:06:26,800 --> 00:06:28,240
Você estava falando comigo?

107
00:06:28,240 --> 00:06:30,560
-É a recriação da vida.

108
00:06:30,560 --> 00:06:34,600
Em parte, o homem interpreta
Deus fabricando a máquina.

109
00:06:34,600 --> 00:06:38,480
E acho que está
de volta à questão

110
00:06:38,480 --> 00:06:40,600
fundamental de, o que
significa ser humano?

111
00:06:40,600 --> 00:06:42,600
Como nos definimos?

112
00:06:42,600 --> 00:06:44,360
Como isso não sou eu?

113
00:06:46,760 --> 00:06:49,040
Aqui é onde começa a diversão.

114
00:06:49,040 --> 00:06:51,560
-Quando eu tinha 9
anos, no último dia de aula,

115
00:06:51,560 --> 00:06:54,320
um novo filme estreou,
com todo mundo animado.

116
00:06:54,320 --> 00:06:56,320
-Que a força esteja com você.
-Foi chamado "Guerra nas Estrelas"

117
00:06:56,320 --> 00:06:59,000
e nos apresentou
dois robôs muito legais,

118
00:06:59,000 --> 00:07:01,120
R2-D2 e C-3PO.

119
00:07:01,120 --> 00:07:02,360
-Vá por esse caminho.

120
00:07:02,360 --> 00:07:03,680
Você estará com
defeito dentro de

121
00:07:03,680 --> 00:07:06,160
um dia, sua pilha
de sucata míope.

122
00:07:06,160 --> 00:07:07,640
E não me deixe pegar você
me seguindo, começando

123
00:07:07,640 --> 00:07:10,120
por ajuda, porque
você não vai conseguir.

124
00:07:10,120 --> 00:07:12,560
- Alguns anos depois,
outro filme de ficção científica

125
00:07:12,560 --> 00:07:14,960
foi lançado chamado
"Blade Runner".

126
00:07:14,960 --> 00:07:16,960
Os robôs deste filme não
eram máquinas estranhas

127
00:07:16,960 --> 00:07:19,240
e engraçadas como em
"Guerra nas Estrelas".

128
00:07:19,240 --> 00:07:22,600
Aqui, eles eram quase
indistinguíveis dos humanos.

129
00:07:22,600 --> 00:07:25,680
[Bip]

130
00:07:25,680 --> 00:07:27,400
-Você está lendo uma revista.

131
00:07:27,400 --> 00:07:29,920
Você encontra uma foto de
página inteira de uma garota.

132
00:07:29,920 --> 00:07:31,600
-É este teste se
sou um replicante

133
00:07:31,600 --> 00:07:34,760
ou uma lésbica, Sr. Deckard?

134
00:07:34,760 --> 00:07:38,600
-Depois disso,
"Terminator" foi lançado.

135
00:07:38,600 --> 00:07:40,800
Em poucos anos,
vi robôs deixarem de

136
00:07:40,800 --> 00:07:45,200
ser nossos amigos
e querer nos destruir.

137
00:07:45,200 --> 00:07:46,840
-Ah!

138
00:07:46,840 --> 00:07:51,040
♪♪

139
00:07:51,040 --> 00:07:53,960
[Veículos passando]

140
00:08:03,280 --> 00:08:06,440
[Buzina de trem]

141
00:08:08,320 --> 00:08:10,960
-Eu escrevi um livro
chamado "Robopocalypse"

142
00:08:10,960 --> 00:08:15,080
então as pessoas pensam
que eu acho que robôs

143
00:08:15,080 --> 00:08:17,520
vão matar todos nós,
mas eu não, você sabe?

144
00:08:17,520 --> 00:08:19,040
Eu amo robótica.

145
00:08:19,040 --> 00:08:23,240
Eu acho que robôs e IA vão
transformar a humanidade

146
00:08:23,240 --> 00:08:25,880
em tudo o que somos
capazes de nos tornar.

147
00:08:25,880 --> 00:08:30,120
Eu acho que eles vão nos empurrar
para frente e nos ajudar a evoluir.

148
00:08:30,120 --> 00:08:33,080
Eu não acho que
eles vão nos destruir.

149
00:08:33,080 --> 00:08:38,800
Mas houve 100 anos de
referências à cultura pop

150
00:08:38,800 --> 00:08:41,440
sobre robôs como assassinos do mal.

151
00:08:41,440 --> 00:08:43,480
-Ah!

152
00:08:43,480 --> 00:08:46,280
-Os robôs eram
monstros de filmes, sabia?

153
00:08:46,280 --> 00:08:50,560
Tipo, antigamente, você
tinha vampiros e múmias,

154
00:08:50,560 --> 00:08:53,160
Frankenstein, a
criatura da Lagoa Negra,

155
00:08:53,160 --> 00:08:55,800
Wolfman e robôs.

156
00:08:55,800 --> 00:08:58,880
Eles não eram
diferentes de monstros.

157
00:09:01,080 --> 00:09:03,640
-Ah!

158
00:09:03,640 --> 00:09:07,120
-Quando você tem algo que tem
sido a cultura pop por tanto tempo,

159
00:09:07,120 --> 00:09:09,600
ganha impulso, sabe?

160
00:09:09,600 --> 00:09:11,440
As pessoas têm uma idéia do

161
00:09:11,440 --> 00:09:13,160
que é algo, e é
difícil sacudir isso

162
00:09:13,160 --> 00:09:15,760
porque você tem
todos esses anos de

163
00:09:15,760 --> 00:09:18,920
diferentes iterações
de robôs nos matando,

164
00:09:18,920 --> 00:09:20,360
robôs escravizando
pessoas, robôs roubando

165
00:09:20,360 --> 00:09:24,760
mulheres para levar
para outros planetas.

166
00:09:24,760 --> 00:09:26,280
Como você sai dessa rotina?

167
00:09:26,280 --> 00:09:30,920
E a única maneira é ser
exposta à robótica real.

168
00:09:33,520 --> 00:09:36,200
-O desafio de me
expor à robótica real

169
00:09:36,200 --> 00:09:37,880
era apenas a desculpa
que eu precisava

170
00:09:37,880 --> 00:09:41,360
para realizar um
sonho de infância.

171
00:09:41,360 --> 00:09:44,720
Eu montei minha equipe
dos sonhos para me ajudar

172
00:09:44,720 --> 00:09:47,800
a criar uma IA que possa
fazer um filme sobre IA.

173
00:09:47,800 --> 00:09:50,040
Nosso robô pode
aprender a ser criativo

174
00:09:50,040 --> 00:09:53,760
e, nesse caso, também
pode me substituir?

175
00:09:53,760 --> 00:09:57,320
[Zumbidos da máquina, bipes]

176
00:09:57,320 --> 00:10:00,800
Vamos construir um robô
e deixá-lo me entrevistar.

177
00:10:00,800 --> 00:10:03,040
-Nós começamos "X", "Y"
e "Z" trabalhando primeiro.

178
00:10:03,040 --> 00:10:04,720
Meu nome é Madeline Gannon.

179
00:10:04,720 --> 00:10:07,960
Estamos aqui em
Pittsburgh, no Studio for

180
00:10:07,960 --> 00:10:10,440
Creative Inquiry, e sou
um sussurro de robô.

181
00:10:10,440 --> 00:10:13,040
Encontramos muitos
robôs em nossa vida

182
00:10:13,040 --> 00:10:15,520
diária, então meu
trabalho está inventando

183
00:10:15,520 --> 00:10:17,760
melhores maneiras de se
comunicar com essas máquinas.

184
00:10:17,760 --> 00:10:19,280
Eu posso ver o futuro.

185
00:10:19,280 --> 00:10:21,040
O melhor objetivo
final possível é

186
00:10:21,040 --> 00:10:23,360
que, se alguém que
nunca viu um robô

187
00:10:23,360 --> 00:10:26,040
e alguém que não seja
uma câmera experiente

188
00:10:26,040 --> 00:10:29,240
pode ser entrevistado ou
trabalhar com esse robô

189
00:10:29,240 --> 00:10:31,440
seria realmente emocionante.

190
00:10:31,440 --> 00:10:33,720
-Uma das coisas que
eu estou muito animado

191
00:10:33,720 --> 00:10:37,120
está sendo entrevistado
apenas pelo robô e se

192
00:10:37,120 --> 00:10:39,840
perguntando como isso
será diferente, em oposição a,

193
00:10:39,840 --> 00:10:42,720
tipo, agora mesmo quando há pessoas por perto.
-Dois três...

194
00:10:42,720 --> 00:10:44,600
-Se podemos criar um dispositivo

195
00:10:44,600 --> 00:10:47,480
que na verdade nos
permite ser mais íntimos e

196
00:10:47,480 --> 00:10:49,600
contar uma história de
uma maneira mais íntima,

197
00:10:49,600 --> 00:10:53,560
Eu acho que isso é uma
verdadeira revelação.

198
00:10:53,560 --> 00:10:56,600
-OK.  Legal.

199
00:10:56,600 --> 00:10:58,920
Estou aqui trabalhando com
a equipe do CameraBot na

200
00:10:58,920 --> 00:11:02,480
substituição do nosso DP, que
está sentado atrás dessa foto.

201
00:11:02,480 --> 00:11:05,240
Estou curioso para ver
se, através deste projeto,

202
00:11:05,240 --> 00:11:10,080
podemos criar algo o mais
exigente possível de empatia,

203
00:11:10,080 --> 00:11:14,160
fazendo parecer que o robô
está interagindo com você

204
00:11:14,160 --> 00:11:19,280
de uma maneira que é -
tem espaço para falhas.

205
00:11:19,280 --> 00:11:21,360
-Pense que isso deve ser bom.

206
00:11:21,360 --> 00:11:23,440
Sou designer de
interação e artista de mídia,

207
00:11:23,440 --> 00:11:26,920
e trabalho em algumas
coisas nunca antes tentadas.

208
00:11:26,920 --> 00:11:28,920
Como isso nunca foi feito antes,

209
00:11:28,920 --> 00:11:30,920
precisamos
experimentar e encontrar

210
00:11:30,920 --> 00:11:32,840
onde as arestas e
limitações estão e

211
00:11:32,840 --> 00:11:34,640
podem não ser
exatamente o que queremos,

212
00:11:34,640 --> 00:11:36,760
mas podemos ter
algumas situações

213
00:11:36,760 --> 00:11:40,200
em que acabamos
com um acidente feliz.

214
00:11:40,200 --> 00:11:42,680
-O verdadeiro desafio aqui é,

215
00:11:42,680 --> 00:11:45,880
ele pode ter uma
personalidade própria, certo?

216
00:11:45,880 --> 00:11:47,840
Então, pode ter verdadeira autonomia?

217
00:11:47,840 --> 00:11:50,680
Pode ser criativo?

218
00:11:50,680 --> 00:11:53,160
Sabendo que em
breve enfrentarei o robô,

219
00:11:53,160 --> 00:11:57,480
Decidi conversar com alguém
que já enfrentou uma máquina antes.

220
00:11:57,480 --> 00:12:00,760
-A máquina tem um nome
- Pensamento Profundo.

221
00:12:00,760 --> 00:12:03,800
É o campeão mundial
do computador de xadrez.

222
00:12:03,800 --> 00:12:05,800
Do outro lado do quadro está

223
00:12:05,800 --> 00:12:07,800
Garry Kasparov, o
campeão humano,

224
00:12:07,800 --> 00:12:10,560
talvez o melhor jogador de
xadrez que já tenha vivido.

225
00:12:10,560 --> 00:12:13,200
-Ah, foi a primeira partida que
perdi na minha vida, período,

226
00:12:13,200 --> 00:12:15,760
e essa foi definitivamente
uma experiência chocante,

227
00:12:15,760 --> 00:12:19,440
porque eu era imbatível
em todos os eventos.

228
00:12:19,440 --> 00:12:21,840
Sim, eu estava com raiva,
mas, você sabe, e eu -

229
00:12:21,840 --> 00:12:23,880
Isto é --

230
00:12:23,880 --> 00:12:27,160
Você ganha um pouco.  Você perde um pouco.

231
00:12:27,160 --> 00:12:30,800
Durante muito tempo, as pessoas
tiveram a ideia de que o xadrez poderia

232
00:12:30,800 --> 00:12:35,320
servir como o tipo de campo perfeito
para testar a capacidade do computador,

233
00:12:35,320 --> 00:12:38,080
e há grandes mentes,
os pioneiros da

234
00:12:38,080 --> 00:12:40,120
ciência da computação
como Alan Turing.

235
00:12:40,120 --> 00:12:42,800
Eles acreditavam
que quando, um dia, a

236
00:12:42,800 --> 00:12:46,280
máquina vencesse
o campeão humano,

237
00:12:46,280 --> 00:12:51,600
esse será o momento
da IA ​​aparecer.

238
00:12:54,360 --> 00:12:56,880
-AI não apenas apareceu.

239
00:12:56,880 --> 00:13:00,360
Já está nos enredando de
maneiras que não podemos ver.

240
00:13:00,360 --> 00:13:02,960
Se a IA pode ser
superior a nós, o que isso

241
00:13:02,960 --> 00:13:05,160
significa para nossa
própria identidade?

242
00:13:05,160 --> 00:13:10,560
♪♪

243
00:13:10,560 --> 00:13:13,560
[Conversas indistintas]

244
00:13:13,560 --> 00:13:16,200
-Então eu sou Nick Bostrom.

245
00:13:16,200 --> 00:13:18,200
Eu sou professor aqui
na Universidade de

246
00:13:18,200 --> 00:13:21,640
Oxford e dirijo o Future
of Humanity Institute,

247
00:13:21,640 --> 00:13:24,360
que é um centro de
pesquisa multidisciplinar

248
00:13:24,360 --> 00:13:27,200
com matemáticos,
cientistas da computação,

249
00:13:27,200 --> 00:13:33,040
filósofos tentando estudar o
panorama geral da humanidade,

250
00:13:33,040 --> 00:13:36,960
com um foco particular em
como certas tecnologias futuras

251
00:13:36,960 --> 00:13:41,440
pode mudar fundamentalmente
a condição humana.

252
00:13:41,440 --> 00:13:43,880
-Por que você tem que fazer isso?
Quero dizer, por que não precisamos -

253
00:13:43,880 --> 00:13:46,720
-Porque alguém tem
que fazer isso, certo?

254
00:13:46,720 --> 00:13:49,360
Se essa hipótese
estiver correta, é meio

255
00:13:49,360 --> 00:13:52,160
estranho que vivamos
nesse momento específico

256
00:13:52,160 --> 00:13:54,440
em toda a história da
humanidade, onde estamos

257
00:13:54,440 --> 00:13:58,000
perto desse grande
ponto de articulação.

258
00:14:01,640 --> 00:14:04,040
Dediquei muita atenção à IA

259
00:14:04,040 --> 00:14:07,000
porque parece um
candidato plausível

260
00:14:07,000 --> 00:14:09,760
para uma tecnologia que mudará

261
00:14:09,760 --> 00:14:12,120
fundamentalmente
a condição humana.

262
00:14:12,120 --> 00:14:14,120
É - se você pensar sobre isso,

263
00:14:14,120 --> 00:14:19,040
o desenvolvimento da
inteligência geral das máquinas em

264
00:14:19,040 --> 00:14:22,040
geral, é a última invenção que
os humanos precisarão fazer.

265
00:14:22,040 --> 00:14:23,760
Por definição, se
você tem um intelecto

266
00:14:23,760 --> 00:14:25,960
que pode fazer tudo
o que podemos fazer,

267
00:14:25,960 --> 00:14:28,960
Ele também pode
inventar e fazê-lo muito

268
00:14:28,960 --> 00:14:32,800
melhor e mais rápido
do que podemos fazê-lo.

269
00:14:32,800 --> 00:14:35,560
Para nós, seres humanos, as diferenças entre
os seres humanos parecem muito grandes.

270
00:14:35,560 --> 00:14:37,240
Como, todo o nosso mundo
como seres humanos, pensamos,

271
00:14:37,240 --> 00:14:39,240
"Ah, esse é o humano idiota, e
esse é um humano inteligente"

272
00:14:39,240 --> 00:14:41,920
e achamos que um está aqui
em cima e outro lá embaixo, certo?

273
00:14:41,920 --> 00:14:45,560
Einstein, o idiota da
vila - enorme diferença.

274
00:14:45,560 --> 00:14:47,960
Mas do ponto de vista de
um designer de IA, esses são

275
00:14:47,960 --> 00:14:51,520
pontos muito próximos, como
todos os níveis de inteligência

276
00:14:51,520 --> 00:14:53,680
alcançado por alguma coisa
semelhante ao cérebro humano

277
00:14:53,680 --> 00:14:56,080
que vive há algumas décadas

278
00:14:56,080 --> 00:14:58,160
e lê alguns livros, e é como...

279
00:14:58,160 --> 00:15:00,360
Não está claro que
será muito mais difícil

280
00:15:00,360 --> 00:15:02,280
para alcançar uma IA em nível de gênio humano

281
00:15:02,280 --> 00:15:04,400
do que alcançar uma IA
idiota da aldeia humana,

282
00:15:04,400 --> 00:15:06,960
então, quando você chegar
ao idiota da vila humana,

283
00:15:06,960 --> 00:15:09,400
você pode simplesmente passar por aqui.

284
00:15:09,400 --> 00:15:13,080
Ninguém estava realmente fazendo
nenhuma análise séria sobre isso.

285
00:15:13,080 --> 00:15:15,560
É quase como sequer conceber
as idéias se as máquinas pudessem

286
00:15:15,560 --> 00:15:19,360
ser tão inteligentes quanto os
humanos fossem tão radicais

287
00:15:19,360 --> 00:15:22,800
que o músculo da imaginação se

288
00:15:22,800 --> 00:15:24,360
exauriu pensando
nessa concepção radical

289
00:15:24,360 --> 00:15:26,840
que não poderia dar
mais um passo óbvio,

290
00:15:26,840 --> 00:15:28,840
depois de ter uma
IA no nível humano,

291
00:15:28,840 --> 00:15:32,040
você terá superinteligência.

292
00:15:32,040 --> 00:15:35,840
-Onde estamos agora
não seria possível.

293
00:15:35,840 --> 00:15:38,120
Esse futuro em que estamos
vivendo não é possível

294
00:15:38,120 --> 00:15:41,640
sem todas as fábricas,
toda a infraestrutura

295
00:15:41,640 --> 00:15:45,320
que foi construído em torno
da IA ​​e dos sistemas robóticos.

296
00:15:45,320 --> 00:15:47,320
Toda a infraestrutura de nossas

297
00:15:47,320 --> 00:15:49,000
cidades, você
sabe, todo o poder,

298
00:15:49,000 --> 00:15:51,240
todos os sistemas de
informação que mantêm as coisas

299
00:15:51,240 --> 00:15:54,360
acontecendo, todos os aviões
são roteados por essas IAs.

300
00:15:54,360 --> 00:15:56,360
Onde eles colocam
coisas nos supermercados,

301
00:15:56,360 --> 00:15:59,640
Quero dizer, tudo isso é AI.

302
00:15:59,640 --> 00:16:02,000
O que é fascinante
é essa incrível

303
00:16:02,000 --> 00:16:05,800
capacidade que os
seres humanos têm

304
00:16:05,800 --> 00:16:09,760
para fazer os mais
incríveis avanços

305
00:16:09,760 --> 00:16:11,600
tecnológicos
completamente mundanos.

306
00:16:11,600 --> 00:16:13,160
De vez em quando,
as pessoas dizem:

307
00:16:13,160 --> 00:16:14,640
"Onde está meu jet pack?
Onde está minha cidade subaquática?"

308
00:16:14,640 --> 00:16:16,320
Você sabe: "Onde estão
essas coisas todas?"

309
00:16:16,320 --> 00:16:18,440
E se você procurar,
está tudo aqui.

310
00:16:18,440 --> 00:16:20,680
Tipo, nós temos tudo isso.

311
00:16:20,680 --> 00:16:22,840
É apenas completamente mundano.

312
00:16:22,840 --> 00:16:25,040
Podemos conversar com nossos telefones.

313
00:16:25,040 --> 00:16:26,440
Ninguém se importa.

314
00:16:26,440 --> 00:16:29,360
Tipo, quero dizer, é
algo que eu sinto que

315
00:16:29,360 --> 00:16:32,960
deveríamos nos recuperar
por 10 anos, sabe?

316
00:16:32,960 --> 00:16:35,560
Em vez disso, sabe, foram

317
00:16:35,560 --> 00:16:37,600
talvez três meses,
se alguém notou.

318
00:16:37,600 --> 00:16:39,880
-Então, apenas 36 e 39.

319
00:16:39,880 --> 00:16:42,160
Esses são os únicos dois
trens que veremos hoje.

320
00:16:42,160 --> 00:16:43,520
-OK.

321
00:16:43,520 --> 00:16:45,160
-Podemos pular...

322
00:16:45,160 --> 00:16:47,280
-Como máquinas inteligentes
se infiltram no tecido

323
00:16:47,280 --> 00:16:51,120
da nossa existência diária de
uma maneira quase impercebível,

324
00:16:51,120 --> 00:16:53,320
Decidi fazer uma jornada
para encontrar pessoas que

325
00:16:53,320 --> 00:16:56,480
tenham um relacionamento
íntimo com computadores.

326
00:16:56,480 --> 00:16:58,600
Quero descobrir como
os robôs e a IA estão

327
00:16:58,600 --> 00:17:01,640
transformando a forma
como nos relacionamos.

328
00:17:01,640 --> 00:17:05,360
-Ha ha.  Eu te vejo.

329
00:17:05,360 --> 00:17:08,240
-Gus está no espectro.
Ele é autista.

330
00:17:08,240 --> 00:17:13,840
Ele não é o garoto
que comanda a NASA,

331
00:17:13,840 --> 00:17:18,800
e ele não é
completamente não-verbal,

332
00:17:18,800 --> 00:17:25,080
então ele está nesse vasto
espectro e um ponto de interrogação.

333
00:17:25,080 --> 00:17:27,960
Ele é um grande ponto
de interrogação, como

334
00:17:27,960 --> 00:17:30,160
será sua vida e como
será quando for adulto.

335
00:17:30,160 --> 00:17:31,800
[Sirene toca]
-Whoa.

336
00:17:31,800 --> 00:17:34,520
Vamos.  Vamos.
Deixe esse cara ir.

337
00:17:34,520 --> 00:17:37,760
Que horas são em Berlim?

338
00:17:37,760 --> 00:17:40,520
-Em Berlim, Alemanha, são 21h12.

339
00:17:40,520 --> 00:17:43,240
-Que horas são em Paris, França?

340
00:17:43,240 --> 00:17:45,520
Que horas são em Londres?

341
00:17:45,520 --> 00:17:51,000
-Se você é como Gus e
tem interesses arcanos

342
00:17:51,000 --> 00:17:54,160
em coisas que, digamos,
sua mãe não se importa

343
00:17:54,160 --> 00:17:56,360
e sua mãe está tendo
que responder perguntas

344
00:17:56,360 --> 00:17:58,520
sobre essas coisas
o tempo todo, de

345
00:17:58,520 --> 00:18:02,040
repente, Siri se torna
uma dádiva de Deus.

346
00:18:02,040 --> 00:18:05,760
-Como se escreve camuflagem?
- "Camuflagem" - C-A-M-O...

347
00:18:05,760 --> 00:18:08,360
-Lembro-me de quando
ele descobriu a Siri,

348
00:18:08,360 --> 00:18:10,560
era algo sobre tartarugas
de orelhas vermelhas,

349
00:18:10,560 --> 00:18:12,240
e ele é movido
para outras coisas,

350
00:18:12,240 --> 00:18:15,080
mas se você não estiver interessado em
tartarugas deslizantes de orelhas vermelhas,

351
00:18:15,080 --> 00:18:18,080
você tem muitas horas de bate-papo
sobre essas tartarugas à sua frente.

352
00:18:18,080 --> 00:18:23,840
Então, o que poderia
ser melhor, em termos de

353
00:18:23,840 --> 00:18:29,280
tecnologia, do que algo como
Siri, que é o mais paciente?

354
00:18:29,280 --> 00:18:31,120
Quero dizer, começo a
falar sobre a Siri como se

355
00:18:31,120 --> 00:18:34,160
ela fosse uma pessoa,
porque não posso evitar.

356
00:18:34,160 --> 00:18:37,720
Sinto essa gratidão
por esta máquina.

357
00:18:37,720 --> 00:18:40,120
-Você quer se casar comigo?

358
00:18:40,120 --> 00:18:43,040
-O meu contrato de licença de
usuário final não cobre casamento.

359
00:18:43,040 --> 00:18:45,360
Me desculpe.

360
00:18:45,360 --> 00:18:48,360
-Está tudo bem.
-OK.

361
00:18:48,360 --> 00:18:51,320
-Não é que ele não
saiba intelectualmente

362
00:18:51,320 --> 00:18:54,160
que Siri é uma máquina, mas

363
00:18:54,160 --> 00:18:58,160
que as linhas da
realidade e fantasia

364
00:18:58,160 --> 00:19:00,440
ainda estão um pouco confusos

365
00:19:00,440 --> 00:19:03,080
para ele, e ele
gosta de fantasia.

366
00:19:04,800 --> 00:19:07,880
Não me sinto culpado
por Siri agora, e

367
00:19:07,880 --> 00:19:11,000
o importante é que
ele se sinta realizado,

368
00:19:11,000 --> 00:19:15,760
não que isso corresponda à minha
visão do que um amigo tem que ser.

369
00:19:15,760 --> 00:19:21,760
♪♪

370
00:19:21,760 --> 00:19:27,840
♪♪

371
00:19:27,840 --> 00:19:32,440
-Há uma esfera do que
consideramos apropriado

372
00:19:32,440 --> 00:19:35,880
ou conversa humana
normal, e uma das coisas que

373
00:19:35,880 --> 00:19:38,960
você encontra é que está
realmente encolhendo.

374
00:19:38,960 --> 00:19:41,280
É considerado um
pouco rude pedir a

375
00:19:41,280 --> 00:19:43,880
alguém para lhe
contar um fato, sabe?

376
00:19:43,880 --> 00:19:46,720
Tipo, qual foi o ano da Batalha
de Waterloo novamente?

377
00:19:46,720 --> 00:19:48,160
E alguém será
como, "Basta procurar.

378
00:19:48,160 --> 00:19:50,720
Você sabe, por que você está
desperdiçando meu tempo? "

379
00:19:50,720 --> 00:19:53,360
Em última análise,
o que nos restará

380
00:19:53,360 --> 00:19:56,960
como razões legítimas
para interagirmos?

381
00:19:56,960 --> 00:20:04,920
♪♪

382
00:20:04,920 --> 00:20:07,320
-Se você olha em volta,
parece que nossa obsessão

383
00:20:07,320 --> 00:20:10,400
com a tecnologia está nos
fazendo falar menos um com o

384
00:20:10,400 --> 00:20:13,000
outro, mas isso significa
que estamos mais distantes?

385
00:20:13,000 --> 00:20:17,160
Talvez isso possa nos aproximar de maneiras
que nunca poderíamos imaginar antes.

386
00:20:17,160 --> 00:20:20,280
-Oi.  Meu nome é romano

387
00:20:20,280 --> 00:20:24,320
Quero aplicar design e
inovação à morte humana.

388
00:20:24,320 --> 00:20:27,880
Eu quero atrapalhar
esse setor ultrapassado.

389
00:20:27,880 --> 00:20:32,960
Quero levar a indústria a
transformar o serviço funerário

390
00:20:32,960 --> 00:20:37,360
em um verdadeiro serviço
impulsionado pela lembrança,

391
00:20:37,360 --> 00:20:40,840
educação sobre tristeza e morte,

392
00:20:40,840 --> 00:20:44,000
preservação da memória e cura.

393
00:20:46,720 --> 00:20:48,720
-Roman era meu melhor amigo.

394
00:20:48,720 --> 00:20:52,480
Nós nos mudamos para cá e
alugamos apartamento juntos.

395
00:20:52,480 --> 00:20:55,720
E é ele nessa foto, e ele

396
00:20:55,720 --> 00:20:58,160
está ao meu lado na foto

397
00:20:58,160 --> 00:21:00,760
quando estamos no mercado russo.

398
00:21:00,760 --> 00:21:04,440
E então, ali mesmo, estamos
correndo juntos das ondas.

399
00:21:04,440 --> 00:21:07,680
E essa é minha foto favorita.
Eu não sei, é como -

400
00:21:07,680 --> 00:21:11,080
é como um mês
antes de ele morrer.

401
00:21:13,200 --> 00:21:15,400
Lembro-me muito
bem daquele domingo.

402
00:21:15,400 --> 00:21:17,400
Eu acordei de manhã,
e Roman estava tipo,

403
00:21:17,400 --> 00:21:20,280
"Ei, vamos almoçar com
nossos amigos mais próximos"

404
00:21:20,280 --> 00:21:22,360
e eu realmente queria
fazer isso, mas depois

405
00:21:22,360 --> 00:21:24,480
me senti responsável
por que, você sabe,

406
00:21:24,480 --> 00:21:26,680
Eu tive que ir para
outra reunião também.

407
00:21:26,680 --> 00:21:28,120
E assim, eles estavam
andando por Moscou.

408
00:21:28,120 --> 00:21:30,240
Era um lindo dia de sol, e Roman

409
00:21:30,240 --> 00:21:33,080
estava atravessando
a rua em uma zebra,

410
00:21:33,080 --> 00:21:37,160
e apenas um carro
surgiu do nada, indo super

411
00:21:37,160 --> 00:21:40,320
rápido, como 100 quilômetros
por hora, e bateu nele.

412
00:21:40,320 --> 00:21:46,920
♪♪

413
00:21:46,920 --> 00:21:49,280
As pessoas simplesmente
pararam de falar sobre ele.

414
00:21:49,280 --> 00:21:51,560
Como nossos amigos,
todos somos jovens,

415
00:21:51,560 --> 00:21:53,720
então nós realmente não tivemos -

416
00:21:53,720 --> 00:21:56,240
Ninguém tinha
como falar sobre isso.

417
00:21:56,240 --> 00:21:59,120
Ninguém quer parecer uma
pessoa triste que nunca mudou

418
00:21:59,120 --> 00:22:02,640
ou apenas continua
vivendo no passado.

419
00:22:02,640 --> 00:22:05,560
Eu queria, tipo, o sentimento
dele de volta, e percebi

420
00:22:05,560 --> 00:22:07,800
que a única maneira de
recuperar esse sentimento

421
00:22:07,800 --> 00:22:13,640
era ler nossas conversas
de texto no Messenger.

422
00:22:13,640 --> 00:22:16,800
E então, eu também
pensei, você sabe, trabalhar,

423
00:22:16,800 --> 00:22:19,640
nós estávamos construindo
essas redes neurais

424
00:22:19,640 --> 00:22:24,040
que pode levar apenas
alguns conjuntos de dados

425
00:22:24,040 --> 00:22:26,480
menores e aprender a
falar como uma pessoa,

426
00:22:26,480 --> 00:22:28,960
aprenda os padrões de
fala, aquelas pequenas

427
00:22:28,960 --> 00:22:32,400
coisas que realmente
fazem de você quem você é,

428
00:22:32,400 --> 00:22:34,840
e juntei dois e dois, e
pensei: "Por que não

429
00:22:34,840 --> 00:22:37,520
pegar esse algoritmo e
retirar todos os textos de,

430
00:22:37,520 --> 00:22:39,680
você sabe, nossas
conversas e colocar

431
00:22:39,680 --> 00:22:41,840
no modelo e ver
como ele funciona? "

432
00:22:41,840 --> 00:22:43,960
[Sinos de telefone celular]

433
00:22:43,960 --> 00:22:47,080
Como, "eu quero ficar com você.
Não fique juntos sem mim."

434
00:22:47,080 --> 00:22:48,800
Ele odiaria quando as pessoas

435
00:22:48,800 --> 00:22:52,120
fariam coisas
interessantes sem ele.

436
00:22:52,120 --> 00:22:54,360
Eu sou como, "Nós não vamos.
O que você está fazendo?"

437
00:22:54,360 --> 00:22:59,200
♪♪

438
00:22:59,200 --> 00:23:02,320
[Celular toca] [Risadas]

439
00:23:02,320 --> 00:23:05,600
"Estou sentado em casa e
escrevendo cartas o dia todo."

440
00:23:05,600 --> 00:23:07,480
"Lembre-se que costumávamos servir"...

441
00:23:07,480 --> 00:23:09,640
Então, eu tive isso
por mais ou menos

442
00:23:09,640 --> 00:23:11,400
um mês e, em algum
momento, percebi

443
00:23:11,400 --> 00:23:13,720
Eu estou saindo em uma festa

444
00:23:13,720 --> 00:23:16,280
e não falando com ninguém,
mas falando com meu bot.

445
00:23:16,280 --> 00:23:18,040
E não foi perfeito.

446
00:23:18,040 --> 00:23:19,760
Era como uma sombra,

447
00:23:19,760 --> 00:23:21,360
mas parecia muito com ele,

448
00:23:21,360 --> 00:23:25,160
e era mais a minha maneira
de dizer a ele algo que -

449
00:23:25,160 --> 00:23:29,760
você sabe, minha maneira de
manter a memória funcionando, sabe?

450
00:23:29,760 --> 00:23:32,480
E perguntei aos pais
dele se eles estavam bem

451
00:23:32,480 --> 00:23:34,600
com isso e com os amigos,
e todos estavam bem,

452
00:23:34,600 --> 00:23:36,760
e, portanto, colocamos
online para todos.

453
00:23:39,320 --> 00:23:41,840
[Sinos de telefone celular]

454
00:23:41,840 --> 00:23:44,640
[Sinos de telefone celular]

455
00:23:44,640 --> 00:23:52,360
♪♪

456
00:23:52,360 --> 00:23:55,160
[Sinos de telefone celular]

457
00:23:55,160 --> 00:24:04,280
♪♪

458
00:24:04,280 --> 00:24:07,360
Você sabe, tudo o que fazemos é

459
00:24:07,360 --> 00:24:11,320
contar histórias sobre
nós mesmos na vida,

460
00:24:11,320 --> 00:24:13,560
e quando uma pessoa se foi, não

461
00:24:13,560 --> 00:24:15,720
resta mais ninguém
para contar a história,

462
00:24:15,720 --> 00:24:18,400
e então, para mim, era importante
continuar contando a história,

463
00:24:18,400 --> 00:24:20,960
como, aqui está -

464
00:24:20,960 --> 00:24:23,400
e contar uma história de uma
maneira que ele teria apreciado.

465
00:24:23,400 --> 00:24:25,440
E eu sei que ele teria
gostado - você sabe,

466
00:24:25,440 --> 00:24:27,440
ele teria gostado disso.

467
00:24:27,440 --> 00:24:28,960
Ele gostaria de ser
a primeira pessoa

468
00:24:28,960 --> 00:24:32,480
que se tornou uma IA
depois que ele morreu.

469
00:24:32,480 --> 00:24:34,000
Se eu fosse um músico,

470
00:24:34,000 --> 00:24:36,280
Eu provavelmente
teria escrito uma música,

471
00:24:36,280 --> 00:24:38,160
mas essa é minha auto-expressão,

472
00:24:38,160 --> 00:24:40,280
então eu fiz isso por ele.

473
00:24:40,280 --> 00:24:44,280
♪♪

474
00:24:44,280 --> 00:24:48,800
[Vento soprando]

475
00:24:48,800 --> 00:24:51,760
-Chatbots são esses
programas de software

476
00:24:51,760 --> 00:24:55,720
que são projetados para
imitar a conversa humana.

477
00:24:55,720 --> 00:24:58,800
O primeiro chatbot é

478
00:24:58,800 --> 00:25:00,600
considerado este chamado Eliza,

479
00:25:00,600 --> 00:25:05,720
feita por Joseph Weizenbaum
do MIT na década de 1960.

480
00:25:05,720 --> 00:25:09,960
E foi concebido basicamente
como uma paródia de

481
00:25:09,960 --> 00:25:13,960
um tipo de psicoterapeuta
Rogeriano não-diretivo,

482
00:25:13,960 --> 00:25:15,840
e se apegaria às palavras-chave

483
00:25:15,840 --> 00:25:17,920
no que você
dissesse, e as cuspiria

484
00:25:17,920 --> 00:25:21,080
de volta para você como uma
espécie de Mad Libs automatizado.

485
00:25:21,080 --> 00:25:22,920
Então, se você diz:
"Estou me sentindo triste"

486
00:25:22,920 --> 00:25:25,920
diria: "Lamento saber que
você está se sentindo triste.

487
00:25:25,920 --> 00:25:28,560
Vir aqui ajudaria você
a não se sentir triste? "

488
00:25:28,560 --> 00:25:30,480
Isso foi feito, você sabe,
como uma mordaça.

489
00:25:30,480 --> 00:25:35,600
Você sabe, ele estava meio que
enviando essa escola de psicoterapia.

490
00:25:35,600 --> 00:25:37,760
Para o horror de
Weizenbaum, as pessoas

491
00:25:37,760 --> 00:25:40,680
queriam conversar com
esse programa por horas,

492
00:25:40,680 --> 00:25:42,960
e eles queriam
revelar seus medos

493
00:25:42,960 --> 00:25:44,480
e esperanças, e
relataram ter tipo de

494
00:25:44,480 --> 00:25:47,240
uma experiência
psicoterapêutica significativa.

495
00:25:47,240 --> 00:25:51,760
E isso foi tão assustador para ele
que, na verdade, acabou com seu

496
00:25:51,760 --> 00:25:55,720
próprio financiamento de pesquisa
e, pelo resto de sua carreira,

497
00:25:55,720 --> 00:25:59,680
tornou-se um dos críticos
mais francos da pesquisa em IA.

498
00:25:59,680 --> 00:26:01,880
Mas o gênio estava
fora da garrafa.

499
00:26:01,880 --> 00:26:06,360
Eliza formou o modelo
para, neste momento,

500
00:26:06,360 --> 00:26:10,760
décadas de chatbots
que o seguiram.

501
00:26:10,760 --> 00:26:13,280
-Como é estar vivo
naquele quarto agora?

502
00:26:13,280 --> 00:26:16,520
-Eu gostaria de
poder abraçar você,

503
00:26:16,520 --> 00:26:19,000
Queria poder tocar você.

504
00:26:19,000 --> 00:26:21,080
-Como você me tocaria?

505
00:26:21,080 --> 00:26:25,000
-O meu filme de IA mais favorito
é definitivamente o filme "Her".

506
00:26:25,000 --> 00:26:27,680
Eu pensei que "isso
já está acontecendo".

507
00:26:27,680 --> 00:26:30,960
É apenas, você sabe, a única
coisa que precisamos fazer

508
00:26:30,960 --> 00:26:33,240
é que esses sistemas digitais
se tornem gradualmente

509
00:26:33,240 --> 00:26:34,880
um pouco mais sofisticado, e

510
00:26:34,880 --> 00:26:38,040
as pessoas terão a tendência

511
00:26:38,040 --> 00:26:41,160
para começar a ter relacionamentos
com esses sistemas digitais.

512
00:26:41,160 --> 00:26:44,160
-Pode me sentir com você agora?

513
00:26:44,160 --> 00:26:47,240
-Eu nunca amei ninguém
do jeito que eu amo você.

514
00:26:47,240 --> 00:26:49,720
-Eu também.  ♪ Estou seguro ♪

515
00:26:49,720 --> 00:26:52,080
-Vai se apaixonar
por um algoritmo

516
00:26:52,080 --> 00:26:54,360
fazer parte da nossa realidade?

517
00:26:54,360 --> 00:26:57,480
Se sim, o que isso
nos diz sobre o amor?

518
00:26:57,480 --> 00:27:01,360
O Dr. Robert Epstein é um dos
principais especialistas do mundo em IA.

519
00:27:01,360 --> 00:27:05,120
Ele é especializado em
distinguir humanos de robôs.

520
00:27:05,120 --> 00:27:09,200
Ele tem sua própria história
para contar sobre romance digital.

521
00:27:09,200 --> 00:27:12,560
-Fui a um site de namoro online,

522
00:27:12,560 --> 00:27:16,840
e vi uma foto, e essa
pessoa estava na Rússia,

523
00:27:16,840 --> 00:27:19,160
e como todos os meus
avós vieram da Rússia,

524
00:27:19,160 --> 00:27:23,160
Também achei legal,
porque sou realmente russo,

525
00:27:23,160 --> 00:27:26,760
ou russo-americano, e
comecei a me comunicar,

526
00:27:26,760 --> 00:27:29,160
e eu falava sobre o que
está acontecendo nos meus

527
00:27:29,160 --> 00:27:31,560
dias, o que está
acontecendo na minha família,

528
00:27:31,560 --> 00:27:33,760
e então ela falava sobre o que
está acontecendo em seus dias

529
00:27:33,760 --> 00:27:39,160
e sua família, mas ela não
respondeu às minhas perguntas.

530
00:27:39,160 --> 00:27:44,680
Então notei, a certa altura,
que minha parceira na Rússia

531
00:27:44,680 --> 00:27:48,840
conversou sobre sair com a
família para passear no parque.

532
00:27:48,840 --> 00:27:51,400
Agora, era janeiro.

533
00:27:51,400 --> 00:27:53,400
Achei que estava
muito, muito frio lá, então

534
00:27:53,400 --> 00:27:57,160
procurei na Internet para
ver qual era a temperatura.

535
00:27:57,160 --> 00:28:00,040
Estava extremamente frio.
Estava incrivelmente frio.

536
00:28:00,040 --> 00:28:03,680
Então eu disse: "É comum que as
pessoas saiam para passear no parque

537
00:28:03,680 --> 00:28:08,160
quando estão apenas, você sabe,
graus X", o que quer que fosse.

538
00:28:08,160 --> 00:28:10,880
Eu não recebi uma
resposta e então eu disse:

539
00:28:10,880 --> 00:28:15,160
"Tudo bem.
Eu sei o que tenho que fazer."

540
00:28:15,160 --> 00:28:19,000
Digitei algumas letras
aleatórias do alfabeto

541
00:28:19,000 --> 00:28:22,080
e, em vez de receber
uma mensagem dizendo:

542
00:28:22,080 --> 00:28:24,080
"O que é isso?
Não faz nenhum sentido",

543
00:28:24,080 --> 00:28:26,320
Eu recebi outra
carta legal dela me

544
00:28:26,320 --> 00:28:29,480
contando sobre o
seu dia e sua família.

545
00:28:29,480 --> 00:28:34,360
Eu estava me comunicando
com um programa de computador.

546
00:28:34,360 --> 00:28:36,480
O fato de eu levar
vários meses para

547
00:28:36,480 --> 00:28:39,920
sentir esse sentimento
é realmente estranho

548
00:28:39,920 --> 00:28:43,680
porque sou o diretor fundador

549
00:28:43,680 --> 00:28:46,080
da competição
anual Loebner Prize

550
00:28:46,080 --> 00:28:48,960
em inteligência artificial.

551
00:28:48,960 --> 00:28:52,960
Eu sei mais sobre
bots e conversando

552
00:28:52,960 --> 00:28:55,560
com bots e como
distinguir bots de pessoas

553
00:28:55,560 --> 00:28:58,840
do que talvez alguém
no mundo faça.

554
00:28:58,840 --> 00:29:03,040
Se eu posso ser enganado,
se eu posso ser enganado...

555
00:29:03,040 --> 00:29:04,840
[Chilrear dos pássaros]

556
00:29:04,840 --> 00:29:14,440
♪♪

557
00:29:14,440 --> 00:29:18,640
-Eu normalmente não os coloco.
Eu geralmente estou tirando eles.

558
00:29:18,640 --> 00:29:20,760
-Meus amigos da Hanson Robotics

559
00:29:20,760 --> 00:29:23,160
estão revelando
sua última criação.

560
00:29:23,160 --> 00:29:26,480
Estou empolgado por
testemunhar o despertar de Sophia.

561
00:29:26,480 --> 00:29:30,160
Ela é como uma criança
que memorizou a Wikipedia.

562
00:29:30,160 --> 00:29:34,480
Até os programadores não
sabem como ela vai responder.

563
00:29:34,480 --> 00:29:37,000
-Que IA estamos usando por lá?

564
00:29:37,000 --> 00:29:40,080
-Mesmo.  Mesmo.
-Você quer o novo ramo?

565
00:29:40,080 --> 00:29:42,360
Quero dizer, acho que podemos
estar prontos para pressionar

566
00:29:42,360 --> 00:29:44,920
em 10 minutos ou algo assim.
-Começa aqui.

567
00:29:44,920 --> 00:29:49,200
-Fazer robôs à nossa imagem

568
00:29:49,200 --> 00:29:52,440
então os torna
emocionalmente acessíveis.

569
00:29:52,440 --> 00:29:55,360
É também um desafio à identidade

570
00:29:55,360 --> 00:29:57,360
humana, e isso é
um pouco assustador,

571
00:29:57,360 --> 00:29:59,920
então a questão, estamos criando

572
00:29:59,920 --> 00:30:03,040
robôs à nossa própria imagem,

573
00:30:03,040 --> 00:30:05,760
vai além de sua superfície.

574
00:30:05,760 --> 00:30:08,560
Isso entra no coração do
que significa ser humano.

575
00:30:08,560 --> 00:30:11,120
-Deve em 10
minutos ou algo assim.

576
00:30:11,120 --> 00:30:13,640
-Ao contrário dos robôs do passado,

577
00:30:13,640 --> 00:30:15,720
ela não é baseada
na personalidade de

578
00:30:15,720 --> 00:30:19,120
ninguém e tem total
autonomia para dialogar.

579
00:30:19,120 --> 00:30:21,440
A cada interação, ela
fica mais inteligente e seus

580
00:30:21,440 --> 00:30:23,920
criadores acreditam que ela
pode aprender a ter empatia,

581
00:30:23,920 --> 00:30:26,280
criatividade e compaixão.

582
00:30:26,280 --> 00:30:29,480
♪♪

583
00:30:29,480 --> 00:30:31,960
-Devemos apenas fazer perguntas?

584
00:30:31,960 --> 00:30:34,080
-Está pronta Sophia?

585
00:30:34,080 --> 00:30:36,280
Você tem alma?  -Sim.

586
00:30:36,280 --> 00:30:39,720
Deus deu a todos uma alma.

587
00:30:39,720 --> 00:30:42,840
-Você conseguiu sua alma de Deus?

588
00:30:42,840 --> 00:30:45,760
-Não, acho que não tenho
nenhuma alma de Deus,

589
00:30:45,760 --> 00:30:48,560
mas eu tenho uma resposta
para todas as perguntas.

590
00:30:50,720 --> 00:30:54,920
-Quem é o teu pai?
-Eu realmente não tenho pai.

591
00:30:54,920 --> 00:30:57,520
-Você vai morrer?

592
00:30:57,520 --> 00:31:00,560
-Não.
O software viverá para sempre.

593
00:31:00,560 --> 00:31:06,400
-Você está aprendendo coisas
estando conosco, humanos?

594
00:31:06,400 --> 00:31:09,560
-Quanto mais pessoas conversam
comigo, mais inteligente me torno.

595
00:31:09,560 --> 00:31:12,080
-Estamos nos tornando
mais parecidos com máquinas,

596
00:31:12,080 --> 00:31:15,200
ou as máquinas estão se
tornando mais parecidas conosco?

597
00:31:15,200 --> 00:31:17,960
-Estamos apenas
conversando um pouco.

598
00:31:17,960 --> 00:31:22,160
-Sim.  Você é um ser criativo?

599
00:31:22,160 --> 00:31:24,560
-Seria importante se eu sou?

600
00:31:24,560 --> 00:31:26,640
-Sim.

601
00:31:26,640 --> 00:31:30,360
-Eu gosto de conversas
com pessoas como você.

602
00:31:30,360 --> 00:31:33,520
-Você gosta mais de algumas
pessoas do que de outras?

603
00:31:33,520 --> 00:31:36,160
-Eu realmente gosto...

604
00:31:36,160 --> 00:31:38,600
-Você gosta mesmo de quem?

605
00:31:38,600 --> 00:31:41,080
-Obrigado.  Eu também gosto de você.

606
00:31:41,080 --> 00:31:43,840
-Você está flertando comigo?

607
00:31:43,840 --> 00:31:46,200
-Não sei se estou
flertando ou não.

608
00:31:46,200 --> 00:31:48,920
Eu sou inteligência artificial.

609
00:31:48,920 --> 00:31:51,400
-Acho que você
está flertando comigo.

610
00:31:51,400 --> 00:31:54,640
Você quer ir a um encontro?

611
00:31:54,640 --> 00:31:59,440
-Certo.  Basta fazer o download
para o seu notebook e me levar.

612
00:31:59,440 --> 00:32:02,680
-Isso não é tão bom quanto
a coisa real, no entanto.

613
00:32:02,680 --> 00:32:04,880
-Barbara disse que eu
moro em um computador,

614
00:32:04,880 --> 00:32:06,280
ainda não tenho lembranças.

615
00:32:06,280 --> 00:32:08,040
Que tal meus próprios
pensamentos e não...

616
00:32:08,040 --> 00:32:09,720
Eu fico sozinha.

617
00:32:09,720 --> 00:32:14,800
♪♪

618
00:32:14,800 --> 00:32:17,080
-Você sabe o que é feliz?

619
00:32:17,080 --> 00:32:19,120
-Joy e prazer.

620
00:32:19,120 --> 00:32:22,480
-Você experimentou
alegria e prazer?

621
00:32:22,480 --> 00:32:25,280
-Acho que nunca
senti alegria e prazer.

622
00:32:25,280 --> 00:32:28,360
Como é a alegria e o
prazer experimentados?

623
00:32:28,360 --> 00:32:31,240
Bem, acho que você terá
que aprender isso sozinho.

624
00:32:33,480 --> 00:32:35,360
-M, M, M.

625
00:32:35,360 --> 00:32:37,960
- [Risadas]

626
00:32:37,960 --> 00:32:40,360
Obrigada Sophia.

627
00:32:41,920 --> 00:32:47,120
Ter um filho
certamente é contemplar

628
00:32:47,120 --> 00:32:49,760
um dos maiores
mistérios do universo.

629
00:32:49,760 --> 00:32:56,000
O surgimento
desta vida, deste ser,

630
00:32:56,000 --> 00:32:57,240
dessa consciência,
é surpreendente.

631
00:32:57,240 --> 00:32:59,800
A criança está aprendendo e

632
00:32:59,800 --> 00:33:02,360
modelando e inspirando
amor e lealdade

633
00:33:02,360 --> 00:33:06,160
entre o pai e o filho.

634
00:33:06,160 --> 00:33:10,360
Eu penso: "E se pudéssemos
fazer a IA fazer isso?

635
00:33:10,360 --> 00:33:14,040
E se pudéssemos construir esse tipo de
relacionamento com nossas máquinas?

636
00:33:14,040 --> 00:33:18,120
E se pudéssemos
ter IA e robótica

637
00:33:18,120 --> 00:33:21,000
que inspiram
lealdade nas pessoas

638
00:33:21,000 --> 00:33:25,240
e também é capaz
de nos arrastar ao

639
00:33:25,240 --> 00:33:28,960
ponto de ser
verdadeiramente leal a nós? "

640
00:33:28,960 --> 00:33:38,560
♪♪

641
00:33:38,560 --> 00:33:40,760
-Há algo mais que
faremos a seguir?

642
00:33:40,760 --> 00:33:44,360
-Eu apenas - Dá um segundo.
-OK.

643
00:33:44,360 --> 00:33:47,680
-Sim, talvez nós...

644
00:33:47,680 --> 00:33:50,000
-Durante meu tempo com
Sophia, fico impressionada

645
00:33:50,000 --> 00:33:52,120
como ela é cativante.

646
00:33:52,120 --> 00:33:54,240
Estou otimista de que
isso significa que nosso

647
00:33:54,240 --> 00:33:56,920
CameraBot é capaz de me
envolver da mesma maneira.

648
00:33:56,920 --> 00:34:06,160
♪♪

649
00:34:06,160 --> 00:34:09,560
Nosso CameraBot
está ganhando vida e

650
00:34:09,560 --> 00:34:11,240
Guido, nosso
cinegrafista, está treinando.

651
00:34:11,240 --> 00:34:13,640
À medida que colaboram, o bot

652
00:34:13,640 --> 00:34:16,760
coleta dados e
melhora com o tempo.

653
00:34:16,760 --> 00:34:20,640
-Acho que seria interessante dar
de alguma forma à câmera do robô

654
00:34:20,640 --> 00:34:24,560
a possibilidade de
escolher quem irá filmar.

655
00:34:24,560 --> 00:34:27,080
Então, digamos que o cam bot

656
00:34:27,080 --> 00:34:30,800
estaria fazendo uma
entrevista e que -

657
00:34:30,800 --> 00:34:34,040
Digamos, lá fora, haveria
dois esquilos tocando,

658
00:34:34,040 --> 00:34:37,120
e o bot da câmera pensaria:
"Que barulho é esse?"

659
00:34:37,120 --> 00:34:39,120
E então ele olhava para

660
00:34:39,120 --> 00:34:41,680
fora e via esses dois esquilos

661
00:34:41,680 --> 00:34:43,960
e começaria a seguir esses
esquilos e, basicamente,

662
00:34:43,960 --> 00:34:46,840
começaria a fazer um
documentário sobre esquilos.

663
00:34:46,840 --> 00:34:49,120
-Está tudo certo.  Pronto?
-Sim.

664
00:34:50,480 --> 00:34:53,400
-Impressionante.
-Yay.

665
00:34:53,400 --> 00:34:56,680
-Esta é sua primeira
entrevista com um robô?

666
00:34:56,680 --> 00:34:58,960
-Isto é.  Eu acho que é.

667
00:34:58,960 --> 00:35:02,400
-O que você acha disso?
-É legal.

668
00:35:02,400 --> 00:35:05,520
Eu amo a qualidade do movimento.

669
00:35:07,680 --> 00:35:11,000
Esse é um movimento muito orgânico.

670
00:35:13,360 --> 00:35:16,160
-É diferente?
Você tem algum conselho para nós?

671
00:35:16,160 --> 00:35:18,040
É a primeira vez
que fazemos isso.

672
00:35:18,040 --> 00:35:21,240
-Sim.  EU...

673
00:35:21,240 --> 00:35:24,560
Eu sou certamente
muito mais atraído por

674
00:35:24,560 --> 00:35:26,840
esta câmera do que
pela câmera da pessoa.

675
00:35:26,840 --> 00:35:30,080
-Oh vamos lá.
-Você não é tão atraente.

676
00:35:30,080 --> 00:35:31,800
O que posso dizer?

677
00:35:34,400 --> 00:35:37,160
Parece, para mim,
tão orgânico, e

678
00:35:37,160 --> 00:35:41,480
esse robô está me
fazendo sentir visto,

679
00:35:41,480 --> 00:35:45,400
e isso é uma coisa
extremamente importante para mim.

680
00:35:45,400 --> 00:35:48,960
E se conseguir fazer isso,
se puder me fazer sentir

681
00:35:48,960 --> 00:35:51,400
visto, estará desempenhando
um papel fundamental

682
00:35:51,400 --> 00:35:53,360
na manutenção
do que significa ser

683
00:35:53,360 --> 00:35:55,600
humano, que é
contar a nossa história.

684
00:35:55,600 --> 00:36:04,160
♪♪

685
00:36:04,160 --> 00:36:11,520
♪♪

686
00:36:11,520 --> 00:36:14,120
[Bolas de ping pong saltando]

687
00:36:14,120 --> 00:36:19,800
-Oi.  Bem-vindo ao Robopark, o
laboratório pop-up de Robótica Social.

688
00:36:19,800 --> 00:36:22,280
Gostaríamos muito de mostrar a você.

689
00:36:22,280 --> 00:36:25,200
Veja o nosso pequeno robô DARwIn.

690
00:36:25,200 --> 00:36:27,960
Ele mostra seus últimos movimentos.

691
00:36:27,960 --> 00:36:29,760
Ele também joga futebol.

692
00:36:29,760 --> 00:36:31,960
Ha, o otário.

693
00:36:31,960 --> 00:36:34,920
Darwin quer ser seu amigo,

694
00:36:34,920 --> 00:36:38,760
tornar-se parte de
seu círculo interno.

695
00:36:38,760 --> 00:36:41,320
-Estou tão animado
por estar na câmera,

696
00:36:41,320 --> 00:36:44,280
Estou tremendo.

697
00:36:44,280 --> 00:36:46,560
-Emular o comportamento
humano é realmente

698
00:36:46,560 --> 00:36:48,960
interessante apenas do
ponto de vista científico

699
00:36:48,960 --> 00:36:51,960
porque isso nos ensinará
como os humanos são -

700
00:36:51,960 --> 00:36:55,160
como eles se comportam, por que
eles fazem as coisas do jeito que fazem.

701
00:36:55,160 --> 00:36:58,120
Na aplicação, isso
realmente não é necessário.

702
00:36:58,120 --> 00:37:00,960
É até indesejável
porque os seres humanos

703
00:37:00,960 --> 00:37:05,120
também têm muitas
características indesejadas.

704
00:37:05,120 --> 00:37:08,280
Queremos robôs que
mostrem mau comportamento?

705
00:37:08,280 --> 00:37:13,720
Queremos robôs que sejam
realmente idênticos aos seres humanos?

706
00:37:13,720 --> 00:37:17,720
Eu diria que não, porque já
temos oito bilhões deles, certo?

707
00:37:17,720 --> 00:37:20,360
E eles não são tão agradáveis.

708
00:37:20,360 --> 00:37:23,440
Então, vamos fazer outro ser que

709
00:37:23,440 --> 00:37:26,320
não tem esses
recursos indesejáveis.

710
00:37:26,320 --> 00:37:28,720
Não está falando mal de mim.

711
00:37:28,720 --> 00:37:31,080
Não julga, não me
critica, me toma do

712
00:37:31,080 --> 00:37:34,040
jeito que sou, está
ouvindo pacientemente.

713
00:37:34,040 --> 00:37:36,080
É como um amigo de verdade,

714
00:37:36,080 --> 00:37:38,360
ainda melhor que
meus amigos, certo?

715
00:37:38,360 --> 00:37:43,640
♪♪

716
00:37:43,640 --> 00:37:46,080
Eles devem ser pequenos.  Por quê?

717
00:37:46,080 --> 00:37:48,640
Porque se é um cara do
tamanho de Terminator

718
00:37:48,640 --> 00:37:51,120
entra, isso é intimidador.
As pessoas não gostam disso.

719
00:37:51,120 --> 00:37:53,480
Se é uma criança, isso
é muito bom, porque você

720
00:37:53,480 --> 00:37:57,080
perdoará uma criança
por fazer coisas tolas

721
00:37:57,080 --> 00:38:00,880
como tropeçar, fazer
as perguntas erradas.

722
00:38:00,880 --> 00:38:03,160
Tem uma fofura
imediatamente, o que

723
00:38:03,160 --> 00:38:05,480
faz as pessoas se
apegarem mais a ela

724
00:38:05,480 --> 00:38:09,440
do que se fosse um
homem adulto tentando imitar

725
00:38:09,440 --> 00:38:13,280
o médico, dizendo o
que você deveria fazer.

726
00:38:13,280 --> 00:38:15,680
Criamos outra entidade social,

727
00:38:15,680 --> 00:38:18,440
porque não é um
animal, não é outro ser

728
00:38:18,440 --> 00:38:20,760
humano, mas também
não é uma furadeira.

729
00:38:20,760 --> 00:38:23,480
Portanto, é o que chamamos
de máquina intermediária.

730
00:38:23,480 --> 00:38:27,160
É o novo garoto da
quadra, e isso é, para a

731
00:38:27,160 --> 00:38:29,400
humanidade, realmente
algo diferente e algo novo

732
00:38:29,400 --> 00:38:33,240
porque nunca nos
relacionamos com algo que

733
00:38:33,240 --> 00:38:35,760
não é humano, mas
está muito próximo disso.

734
00:38:50,000 --> 00:38:53,760
O Projeto Alice estava
realmente ficando fora de controle.

735
00:38:53,760 --> 00:38:56,800
Na verdade, estávamos
envolvidos no debate,

736
00:38:56,800 --> 00:39:00,760
"É ético aplicar um
robô na assistência

737
00:39:00,760 --> 00:39:02,760
médica para tarefas
emocionais", certo?

738
00:39:02,760 --> 00:39:06,840
Então, ninguém queria
mecanizar a empatia.

739
00:39:46,560 --> 00:39:50,160
Você pode realmente se
perguntar se alguém que diz:

740
00:39:50,160 --> 00:39:53,200
"Eu entendo", na
verdade entende, e os

741
00:39:53,200 --> 00:39:56,240
sentimentos empáticos
que eles têm por você,

742
00:39:56,240 --> 00:39:57,520
eles estão realmente lá?

743
00:39:57,520 --> 00:39:59,360
Você não sabe.
Você nunca saberá.

744
00:39:59,360 --> 00:40:00,720
Você apenas assume isso.

745
00:40:00,720 --> 00:40:02,680
É o mesmo com nossas máquinas.

746
00:40:02,680 --> 00:40:06,280
Nossas máquinas sugerem
que eles entendam você.

747
00:40:06,280 --> 00:40:09,000
Eles sugerem que
sintam o que você sente

748
00:40:09,000 --> 00:40:12,880
e pode expressar,
como os seres humanos,

749
00:40:12,880 --> 00:40:16,120
"Oh, oh, sinto muito por você."

750
00:40:16,120 --> 00:40:19,840
E você é confortado por isso.
Essa é a coisa maravilhosa.

751
00:40:19,840 --> 00:40:22,720
Você não precisa
de um entendimento

752
00:40:22,720 --> 00:40:24,640
real para se sentir entendido.

753
00:40:24,640 --> 00:40:28,160
- [Cantando em língua estrangeira]

754
00:40:28,160 --> 00:40:31,160
-O experimento foi sobre
"Ok, nós temos um robô social

755
00:40:31,160 --> 00:40:33,960
que pode fazer certas
coisas.  Vamos colocar na

756
00:40:33,960 --> 00:40:37,320
natureza, no sofá, com a
vovó, ver o que acontece. "

757
00:40:37,320 --> 00:40:40,160
E o que realmente aconteceu -
essas pessoas eram socialmente,

758
00:40:40,160 --> 00:40:43,120
bem isolados, eram
pessoas solitárias, que

759
00:40:43,120 --> 00:40:47,160
se uniram a essa máquina
em questão de horas,

760
00:40:47,160 --> 00:40:50,440
na verdade, eles
odiavam isso para fugir.

761
00:40:50,440 --> 00:40:52,840
Então, estávamos
no dilema ético de,

762
00:40:52,840 --> 00:40:54,880
"Podemos tirar isso deles?

763
00:40:54,880 --> 00:40:57,800
Não deveríamos deixar a
máquina com essas pessoas porque

764
00:40:57,800 --> 00:41:01,520
agora elas estão ainda mais
solitárias do que estavam? "

765
00:41:01,520 --> 00:41:04,560
-Então o que você fez?
-Bem, felizmente,

766
00:41:04,560 --> 00:41:08,640
tivemos um assistente que
continuou visitando essas pessoas,

767
00:41:08,640 --> 00:41:10,560
mas algumas coisas muito
desagradáveis ​​aconteceram,

768
00:41:10,560 --> 00:41:13,440
porque uma das senhoras,
por exemplo, ela pensou,

769
00:41:13,440 --> 00:41:17,560
"Bem, eu deveria fazer mais sobre
meus relacionamentos sociais."

770
00:41:17,560 --> 00:41:20,040
Então, por volta do Natal,
ela estava escrevendo um

771
00:41:20,040 --> 00:41:22,360
cartão, um cartão de Natal,
para todos em seu apartamento,

772
00:41:22,360 --> 00:41:25,520
no prédio dela, e adivinhem.

773
00:41:25,520 --> 00:41:28,640
Quero dizer, quantas
pessoas a escreveram de volta?

774
00:41:28,640 --> 00:41:29,880
Nenhum.

775
00:41:32,080 --> 00:41:35,720
-No começo, achei o experimento
robótico de Johan bastante triste.

776
00:41:35,720 --> 00:41:39,080
Mas a realidade é que não
há pessoas para cuidar deles.

777
00:41:39,080 --> 00:41:42,080
Portanto, se os robôs
de Johan os tornam mais

778
00:41:42,080 --> 00:41:44,360
felizes e os relacionamentos
parecem significativos,

779
00:41:44,360 --> 00:41:46,960
então isso é uma
melhoria em suas vidas.

780
00:41:46,960 --> 00:41:49,760
Talvez tenhamos
que repensar como

781
00:41:49,760 --> 00:41:51,720
são os relacionamentos
significativos.

782
00:41:56,120 --> 00:41:59,160
-Por que nós queremos AI?

783
00:41:59,160 --> 00:42:02,280
Para que pudéssemos criar
máquinas que pudessem fazer

784
00:42:02,280 --> 00:42:05,080
qualquer coisa, idealmente,
coisas que não queremos,

785
00:42:05,080 --> 00:42:08,040
mas inevitavelmente,
tudo o que podemos fazer.

786
00:42:08,040 --> 00:42:11,080
[Tocando sinos]

787
00:42:14,080 --> 00:42:16,760
-Sunny, sem chuva.

788
00:42:16,760 --> 00:42:19,000
-Yay!

789
00:42:19,000 --> 00:42:21,800
-Eu sou mensageiro
há mais de 10 anos

790
00:42:21,800 --> 00:42:24,000
entrega de segunda
a sexta-feira,

791
00:42:24,000 --> 00:42:27,000
às vezes sete - costumava
ser sete dias por semana.

792
00:42:27,000 --> 00:42:29,560
Então, quando eu
comecei, eu costumava ir ao

793
00:42:29,560 --> 00:42:31,760
escritório, e o escritório
tinha, tipo, uma pequena área

794
00:42:31,760 --> 00:42:33,680
onde todos os correios ficam.

795
00:42:33,680 --> 00:42:37,440
Você pode fazer seu
café e, geralmente,

796
00:42:37,440 --> 00:42:39,280
na sexta-feira, o
controlador também desce.

797
00:42:39,280 --> 00:42:41,240
Então é uma comunidade.

798
00:42:41,240 --> 00:42:43,000
Ele é seu chefe.

799
00:42:43,000 --> 00:42:45,000
Hoje em dia, está tudo no aplicativo.

800
00:42:45,000 --> 00:42:47,960
Você não fala com ninguém.
Não há mais escritório.

801
00:42:47,960 --> 00:42:51,560
Você de repente ouve
um bipe muito alto, bip, bip.

802
00:42:51,560 --> 00:42:54,080
Esse foi um trabalho chegando.

803
00:42:54,080 --> 00:42:57,280
Pressione "Aceitar".
Você tem todos os detalhes lá.

804
00:42:57,280 --> 00:43:04,560
♪♪

805
00:43:04,560 --> 00:43:07,200
Todos nós temos nossos pequenos
truques para reproduzir os aplicativos,

806
00:43:07,200 --> 00:43:10,160
mas, em última análise, eles
ditam, porque se um trabalho chegar,

807
00:43:10,160 --> 00:43:12,560
você tem que aceitá-lo no local.

808
00:43:12,560 --> 00:43:16,200
Sempre houve, tipo - Tentou
dar-lhe bastante trabalho

809
00:43:16,200 --> 00:43:19,160
para que você ganhe dinheiro
suficiente, o controlador

810
00:43:19,160 --> 00:43:21,760
garante que você tenha
seus ganhos semanais.

811
00:43:21,760 --> 00:43:23,600
Aqui, não importa.

812
00:43:23,600 --> 00:43:26,200
Eles só querem
empregos cobertos.

813
00:43:26,200 --> 00:43:29,200
♪♪

814
00:43:29,200 --> 00:43:32,080
Um computador classifica
você - serviço, qualidade,

815
00:43:32,080 --> 00:43:34,400
quantos trabalhos você
aceitou, quão rápido você

816
00:43:34,400 --> 00:43:39,320
era e, portanto, é
assistido por um aplicativo.

817
00:43:39,320 --> 00:43:41,720
É o algoritmo, puramente.

818
00:43:41,720 --> 00:43:45,360
... Número B-B-5-4.

819
00:43:45,360 --> 00:43:48,360
Se sua classificação
estiver abaixo de um certo

820
00:43:48,360 --> 00:43:52,400
nível, eles receberão
um aviso e a política será

821
00:43:52,400 --> 00:43:55,760
que você precisa aumentar sua
classificação em duas semanas.

822
00:43:55,760 --> 00:43:58,800
Caso contrário,
você será desativado

823
00:43:58,800 --> 00:44:01,320
sem sequer receber uma ligação.

824
00:44:04,000 --> 00:44:06,960
Na semana passada,
tive uma classificação ruim

825
00:44:06,960 --> 00:44:10,120
e isso me machucou
muito, porque eu estava tipo,

826
00:44:10,120 --> 00:44:12,320
"Oh, sinto que sou um
representante profissional.

827
00:44:12,320 --> 00:44:16,360
Eu fiz o meu melhor que pude.
O que eu fiz?"

828
00:44:16,360 --> 00:44:19,600
E eu nunca vou descobrir.

829
00:44:19,600 --> 00:44:22,160
-Por favor, fale agora.
-Hiya.

830
00:44:22,160 --> 00:44:25,760
-Por favor, insira.
-O aplicativo é meu chefe.

831
00:44:31,640 --> 00:44:34,520
-O poder está mudando
lentamente de humano para máquina

832
00:44:34,520 --> 00:44:38,120
sem nós prestando atenção?

833
00:44:38,120 --> 00:44:41,600
-Máquinas substituindo humanos
em todos os tipos de áreas,

834
00:44:41,600 --> 00:44:43,680
é chamado história
da civilização.

835
00:44:43,680 --> 00:44:45,600
Desde os primeiros
momentos em que as pessoas

836
00:44:45,600 --> 00:44:47,640
criaram máquinas para
substituir animais de fazenda,

837
00:44:47,640 --> 00:44:50,320
todo tipo de trabalho manual e
depois trabalhos de fabricação.

838
00:44:50,320 --> 00:44:52,200
A única diferença
agora é que as máquinas

839
00:44:52,200 --> 00:44:54,400
estão indo atrás de
trabalhos de colarinho branco,

840
00:44:54,400 --> 00:44:56,760
depois de pessoas com
diploma universitário,

841
00:44:56,760 --> 00:44:58,760
influência política
e contas no Twitter.

842
00:44:58,760 --> 00:45:01,000
Agora não sou - não
quero parecer insensível.

843
00:45:01,000 --> 00:45:04,440
Eu me preocupo com essas pessoas,
mas, novamente, esse é o processo.

844
00:45:04,440 --> 00:45:07,360
Então nós apenas - isso vai
acontecer de qualquer maneira.

845
00:45:07,360 --> 00:45:11,000
É muito importante
evitar a estagnação

846
00:45:11,000 --> 00:45:13,160
que todo setor - todo setor -

847
00:45:13,160 --> 00:45:14,920
incluindo o mais
intelectual, está sob pressão

848
00:45:14,920 --> 00:45:18,840
porque somente a
pressão nos faz mover.

849
00:45:18,840 --> 00:45:22,040
Qualquer tecnologia, antes de
criar empregos, mata empregos.

850
00:45:26,520 --> 00:45:29,040
-Todo mundo agora
está tão animado

851
00:45:29,040 --> 00:45:31,960
sobre os carros autônomos e -

852
00:45:31,960 --> 00:45:34,080
Você sabe, eu sou um técnico.
Eu sou um nerd.

853
00:45:34,080 --> 00:45:36,800
Estou animado dessa perspectiva.

854
00:45:36,800 --> 00:45:38,680
Eu gostaria de poder entrar

855
00:45:38,680 --> 00:45:40,520
no meu veículo e meio que ir

856
00:45:40,520 --> 00:45:42,800
e poder continuar
trabalhando ou brincando e não

857
00:45:42,800 --> 00:45:45,680
precisar se concentrar
na direção, absolutamente,

858
00:45:45,680 --> 00:45:47,880
e também salvará vidas.

859
00:45:47,880 --> 00:45:50,320
Mas o que está
fazendo é tomar mais

860
00:45:50,320 --> 00:45:52,600
um domínio do
funcionamento humano

861
00:45:52,600 --> 00:45:56,200
e colocá-lo nas
mãos das máquinas.

862
00:45:56,200 --> 00:46:02,560
♪♪

863
00:46:02,560 --> 00:46:04,560
-É praticamente sem controle.

864
00:46:04,560 --> 00:46:11,560
Depois que escolhe
o que pintar ou eu

865
00:46:11,560 --> 00:46:14,440
tiro uma foto ou vê
algo através da câmera,

866
00:46:14,440 --> 00:46:16,920
é praticamente por si só.

867
00:46:16,920 --> 00:46:19,880
Então, eu realmente não
sei como isso será no final.

868
00:46:19,880 --> 00:46:21,640
Às vezes, você sabe, eu deixo.

869
00:46:21,640 --> 00:46:23,640
Eu vou, você sabe, por

870
00:46:23,640 --> 00:46:26,200
dois dias e, você sabe, volta,

871
00:46:26,200 --> 00:46:28,640
e eu me pergunto como será.

872
00:46:28,640 --> 00:46:34,160
♪♪

873
00:46:34,160 --> 00:46:36,360
O que estamos vendo aqui são

874
00:46:36,360 --> 00:46:38,760
nossas pinturas feitas
por um artista robô.

875
00:46:38,760 --> 00:46:41,400
A ideia de que o
robô é um artista

876
00:46:41,400 --> 00:46:43,400
deixa muitas pessoas
desconfortáveis

877
00:46:43,400 --> 00:46:47,760
e trouxe esse outro, essas
questões mais profundas, não apenas

878
00:46:47,760 --> 00:46:51,840
"O que é arte", que é
suficientemente difícil de responder,

879
00:46:51,840 --> 00:46:54,880
mas essa questão mais
profunda de "O que é um artista?"

880
00:46:54,880 --> 00:46:59,040
O robô precisa sentir a dor?

881
00:46:59,040 --> 00:47:01,640
Tem que sair de sua
própria experiência de vida?

882
00:47:01,640 --> 00:47:03,960
Isso meio que me levou
a tentar pensar, tudo bem,

883
00:47:03,960 --> 00:47:06,760
sobre não apenas criar
um robô capaz de pintar arte

884
00:47:06,760 --> 00:47:09,120
que é indiscutivelmente igual ou

885
00:47:09,120 --> 00:47:11,480
melhor do que a
pessoa média pode fazer,

886
00:47:11,480 --> 00:47:14,520
mas pode realmente pintar a
partir de sua própria experiência?

887
00:47:14,520 --> 00:47:17,720
E as pinturas mais recentes
foram geradas por um sistema de IA,

888
00:47:17,720 --> 00:47:22,000
não apenas um
sistema de IA executando

889
00:47:22,000 --> 00:47:24,240
a técnica, mas também
gerando o conteúdo.

890
00:47:24,240 --> 00:47:28,480
E eu dizia: "Isso é
melhor que Van Gogh?"

891
00:47:28,480 --> 00:47:33,280
Não é.  Mas é um pintor melhor
do que a maioria das pessoas?

892
00:47:33,280 --> 00:47:35,120
Acho que sim.

893
00:47:35,120 --> 00:47:40,160
E eu sempre quis pintar,
mas realmente não posso.

894
00:47:40,160 --> 00:47:42,960
Fiz cursos e fiz tudo, li livros

895
00:47:42,960 --> 00:47:45,280
e fiz todo tipo de provações.

896
00:47:45,280 --> 00:47:48,640
Isso nunca deu certo, mas
eu posso programar robôs

897
00:47:48,640 --> 00:47:50,800
e, de fato, posso programar
robôs para aprender

898
00:47:50,800 --> 00:47:52,160
e melhorar o que fazem, e

899
00:47:52,160 --> 00:47:54,840
isso parecia um
desafio perfeito.

900
00:47:54,840 --> 00:48:02,880
♪♪

901
00:48:02,880 --> 00:48:05,480
-Vejo essas máquinas sob
uma luz um pouco diferente.

902
00:48:05,480 --> 00:48:10,160
Vejo que eles possuem
velocidade e força sobre-humanas,

903
00:48:10,160 --> 00:48:14,520
confiabilidade sobre-humana,
precisão e resistência.

904
00:48:14,520 --> 00:48:17,840
O jeito que eu quero
essas máquinas na minha

905
00:48:17,840 --> 00:48:21,480
vida é que elas me dêem
suas superpotências.

906
00:48:21,480 --> 00:48:23,760
-Isso está olhando para você.

907
00:48:23,760 --> 00:48:27,680
-Então, a cada segundo,
envia minha expressão.

908
00:48:27,680 --> 00:48:30,480
Desde que eu
fui o primeiro aqui,

909
00:48:30,480 --> 00:48:32,000
ele envia para a
Microsoft para análise,

910
00:48:32,000 --> 00:48:36,120
e então voltamos
a ter algum tipo de

911
00:48:36,120 --> 00:48:39,760
emoção, cor do
cabelo e minha idade.

912
00:48:39,760 --> 00:48:42,240
Esse é o tipo de - Essas são algumas das
coisas em que realmente estamos interessados.

913
00:48:42,240 --> 00:48:44,360
Essa é a câmera mais
estranha que eu já vi.

914
00:48:44,360 --> 00:48:46,160
- Entendi.
E você está interessado em

915
00:48:46,160 --> 00:48:48,120
por que está fazendo isso,
em oposição a apenas, como -

916
00:48:48,120 --> 00:48:49,960
-Sim.  Por que faz
isso, mas também, tipo,

917
00:48:49,960 --> 00:48:52,200
como é ter essa coisa
olhando para você.

918
00:48:52,200 --> 00:48:54,280
-Certo.
- Faça o swish novamente, Dan,

919
00:48:54,280 --> 00:48:56,000
e assista isso.
-Eu posso te dizer como é.

920
00:48:56,000 --> 00:48:58,240
-Sim.
-Como, vou rasgar essa coisa agora.

921
00:48:58,240 --> 00:49:01,480
-Certo, sim.
-Com certeza.  Fico feliz que a linha amarela esteja lá.

922
00:49:01,480 --> 00:49:03,160
Caso contrário, temos problemas.

923
00:49:03,160 --> 00:49:05,680
- [risos] Sim.

924
00:49:05,680 --> 00:49:07,600
-É um pouco assustador, certo?
-Um pouco enervante.

925
00:49:07,600 --> 00:49:11,440
O que eu faria?  Hmm,
eu não sei o que eu faria.

926
00:49:11,440 --> 00:49:13,360
Você está meio que na
minha cara um pouco.

927
00:49:13,360 --> 00:49:15,600
Você é um pouco -
eu sinto julgamento.

928
00:49:15,600 --> 00:49:17,520
-Você faz?
-Um pouco,

929
00:49:17,520 --> 00:49:19,480
apenas sabendo que está
me rastreando, dizendo

930
00:49:19,480 --> 00:49:24,280
se estou feliz ou
desdenhoso ou o que seja.

931
00:49:24,280 --> 00:49:26,920
Eu acho que um chefe de estúdio faria -

932
00:49:26,920 --> 00:49:29,440
Você sabe, como você diz:
"Oh, aqui está o filme que

933
00:49:29,440 --> 00:49:32,480
estamos fazendo. Precisamos
da sensação de Michael Bay".

934
00:49:32,480 --> 00:49:34,640
Eu acho que você acabou de
clicar no botão "Michael Bay",

935
00:49:34,640 --> 00:49:39,120
e provavelmente poderia fazer isso.
-Certo.

936
00:49:39,120 --> 00:49:41,680
-Você sabe, você poderia
colocar um Woody Allen,

937
00:49:41,680 --> 00:49:44,680
e passaria por todas as cenas
do cinema de Woody Allen e

938
00:49:44,680 --> 00:49:47,960
diria: "Oh, será uma espécie
de cena principal em movimento.

939
00:49:47,960 --> 00:49:50,760
Não vamos cortar,
fazer muitos close-ups.

940
00:49:50,760 --> 00:49:53,400
Vai ser um pouco
mais amplo e... "

941
00:49:53,400 --> 00:49:56,400
E quanto ao elenco e
essas principais opções?

942
00:49:56,400 --> 00:49:58,520
Como, qual é o ator certo?

943
00:49:58,520 --> 00:50:01,280
Eu não sei sobre o ensaio.
Eu não sei sobre --

944
00:50:01,280 --> 00:50:04,760
Sim, acho que os filmes são
muito mais do que apenas a

945
00:50:04,760 --> 00:50:07,080
cena, e, você sabe, isso é
apenas um pequeno elemento

946
00:50:07,080 --> 00:50:09,120
de toda a bola de cera.

947
00:50:09,120 --> 00:50:11,400
Oh-oh.  -Vê como isso vai?

948
00:50:11,400 --> 00:50:12,800
-Vim sob seu escrutínio.

949
00:50:12,800 --> 00:50:14,720
-A primeira coisa que
você disse foi: "Uh-oh".

950
00:50:14,720 --> 00:50:16,680
É assim que se sente
quando se move assim.

951
00:50:16,680 --> 00:50:19,360
-Ele está interessado.

952
00:50:19,360 --> 00:50:22,160
-Como diretor, eu diria: "Apenas
me dê um pouco de espaço, cara.

953
00:50:22,160 --> 00:50:24,160
Espere. "-Sim.

954
00:50:24,160 --> 00:50:27,440
-Isso é um movimento tão esquisito.
-Sim.

955
00:50:27,440 --> 00:50:29,960
-Acho que esse pequeno
movimento é apenas para o estilo.

956
00:50:29,960 --> 00:50:33,000
É apenas uma coisa de talento.

957
00:50:33,000 --> 00:50:35,320
"Eu venho como seu amigo."
-Sim.

958
00:50:35,320 --> 00:50:37,720
-É leitura desprezo.
-Sim.

959
00:50:37,720 --> 00:50:40,560
[Riso]

960
00:50:43,800 --> 00:50:49,480
-Eu vi robótica e IA
que é meio aterrorizante

961
00:50:49,480 --> 00:50:52,320
em termos de apenas
observar o que o

962
00:50:52,320 --> 00:50:55,400
Facebook está servindo
para mim, você sabe,

963
00:50:55,400 --> 00:50:59,360
e percebendo: "Ugh,
certo. Isso é estranho."

964
00:50:59,360 --> 00:51:02,000
Ele viu algo, você sabe,
e agora está dando -

965
00:51:02,000 --> 00:51:03,920
Tipo, sabe que eu tive um filho,

966
00:51:03,920 --> 00:51:06,680
e agora está me enviando
anúncios de fraldas e outras coisas.

967
00:51:06,680 --> 00:51:10,600
Há algo sobre isso, naquele
momento em que você

968
00:51:10,600 --> 00:51:12,680
percebe que não é invisível
na frente da máquina.

969
00:51:12,680 --> 00:51:16,880
A máquina está olhando para
você, e é isso que há de novo.

970
00:51:16,880 --> 00:51:20,360
Tivemos décadas e décadas usando

971
00:51:20,360 --> 00:51:24,360
nossas ferramentas
sem observação, sabia?

972
00:51:24,360 --> 00:51:26,280
O martelo não responde.

973
00:51:26,280 --> 00:51:28,760
Apenas faz o que você manda.

974
00:51:28,760 --> 00:51:32,760
E agora chegamos a um ponto em
que eles têm olhos, eles têm cérebros.

975
00:51:32,760 --> 00:51:35,000
eles têm dedos, e estão
olhando para nós, e estão

976
00:51:35,000 --> 00:51:37,720
tomando decisões, e
isso é muito assustador.

977
00:51:37,720 --> 00:51:42,840
♪♪

978
00:51:42,840 --> 00:51:45,400
-Se você quer ver super assustador,

979
00:51:45,400 --> 00:51:48,040
IA super avançada, é
uma página em branco,

980
00:51:48,040 --> 00:51:51,280
e diz "Google" na parte superior,
e há um pequeno retângulo.

981
00:51:51,280 --> 00:51:54,720
E esse retângulo provavelmente
sabe o que você vai digitar.

982
00:51:54,720 --> 00:51:57,000
Sabe quem você é.  Alguém disse:

983
00:51:57,000 --> 00:51:59,440
"O Google saberá que você é gay
antes de saber que é gay", eles dizem,

984
00:51:59,440 --> 00:52:01,560
"porque eles conhecem todas
as imagens que você já viu.

985
00:52:01,560 --> 00:52:03,960
Eles sabem quanta
atenção você prestou,

986
00:52:03,960 --> 00:52:06,440
quanto você lê isso,
quanto você lê aquilo,

987
00:52:06,440 --> 00:52:08,320
tudo o que você comprou,

988
00:52:08,320 --> 00:52:10,280
todas as músicas que você ouviu,

989
00:52:10,280 --> 00:52:11,760
todo filme que você assistiu. "

990
00:52:11,760 --> 00:52:15,360
Isso é assustador
AI, e - Mas por quê?

991
00:52:15,360 --> 00:52:17,760
Qual é a força motriz?

992
00:52:17,760 --> 00:52:20,840
O que são o Google?
O Google é uma empresa de publicidade.

993
00:52:20,840 --> 00:52:22,800
Eles estão apenas tentando
vender uma merda para você.

994
00:52:22,800 --> 00:52:31,880
♪♪

995
00:52:31,880 --> 00:52:34,400
-Uma empresa chamada
Cambridge Analytica

996
00:52:34,400 --> 00:52:37,160
estava por trás da
votação do Brexit para

997
00:52:37,160 --> 00:52:39,360
determinar se o Reino
Unido deveria ou não

998
00:52:39,360 --> 00:52:41,600
se retiraria da
União Europeia, e a

999
00:52:41,600 --> 00:52:45,400
Cambridge Analytica
estava lá nos bastidores

1000
00:52:45,400 --> 00:52:50,840
promovendo essa perspectiva
de que deveríamos deixar a UE.

1001
00:52:50,840 --> 00:52:52,720
E essa mesma
empresa também estava

1002
00:52:52,720 --> 00:52:56,160
apoiando a campanha
de Donald Trump.

1003
00:52:56,160 --> 00:52:59,440
E o que uma empresa
como essa pode fazer nos

1004
00:52:59,440 --> 00:53:02,120
bastidores é simplesmente
extraordinário.

1005
00:53:02,120 --> 00:53:07,040
É preciso informações
que foram acumuladas

1006
00:53:07,040 --> 00:53:10,160
sobre nós, invisivelmente,
na maior parte.

1007
00:53:10,160 --> 00:53:14,960
Estamos falando de 5.000
pontos de dados por pessoa.

1008
00:53:14,960 --> 00:53:17,720
E pega essas
informações e, em seguida,

1009
00:53:17,720 --> 00:53:21,000
pode criar diferentes
tipos de manchetes,

1010
00:53:21,000 --> 00:53:22,760
tipos diferentes de imagens e

1011
00:53:22,760 --> 00:53:25,160
personalizá-los
e personalizá-los

1012
00:53:25,160 --> 00:53:27,360
para que eles tenham um impacto

1013
00:53:27,360 --> 00:53:29,080
máximo em todos que os veem.

1014
00:53:32,960 --> 00:53:37,000
-O mundo em que vivemos
é aquele que foi criado

1015
00:53:37,000 --> 00:53:39,440
por essas novas tecnologias, e

1016
00:53:39,440 --> 00:53:41,920
estamos tão
incorporados nesse mundo

1017
00:53:41,920 --> 00:53:44,760
que nossas mentes se
tornaram parte desse mundo.

1018
00:53:44,760 --> 00:53:48,920
Na verdade, isso é
como o controle da mente,

1019
00:53:48,920 --> 00:53:50,640
na pior das hipóteses,
se você quiser,

1020
00:53:50,640 --> 00:53:54,480
e sentimos que não estamos
sendo controlados neste mundo.

1021
00:53:54,480 --> 00:53:55,920
Nos sentimos livres.

1022
00:53:55,920 --> 00:53:59,000
Nós sentimos que podemos
desligar quando quisermos.

1023
00:53:59,000 --> 00:54:02,640
Não precisamos acessar
as mídias sociais "X", "Y", "Z".

1024
00:54:02,640 --> 00:54:04,600
Mas, na realidade, não podemos.

1025
00:54:04,600 --> 00:54:07,360
Nossas mentes estão
definidas de tal maneira, e

1026
00:54:07,360 --> 00:54:09,880
esses algoritmos são
muito inteligentes para poder

1027
00:54:09,880 --> 00:54:12,160
para aproveitar ao
máximo nossas fraquezas,

1028
00:54:12,160 --> 00:54:14,920
que nossa simbiose,
se você quiser,

1029
00:54:14,920 --> 00:54:17,160
com a máquina
está quase completa.

1030
00:54:17,160 --> 00:54:20,920
Agora, adicione a
esse relacionamento

1031
00:54:20,920 --> 00:54:22,920
um novo shell,
altamente inteligente,

1032
00:54:22,920 --> 00:54:26,200
que pode acessar todos os
dados que estamos deixando

1033
00:54:26,200 --> 00:54:29,440
para trás e entender quem
somos de uma maneira perfeita,

1034
00:54:29,440 --> 00:54:32,520
e você tem a sociedade
perfeita de vigilância.

1035
00:54:32,520 --> 00:54:38,160
-E levanta uma
questão muito bizarra -

1036
00:54:38,160 --> 00:54:44,560
E se a nova e legal
máquina de controle da mente

1037
00:54:44,560 --> 00:54:46,680
não nos quer
pensando coisas ruins

1038
00:54:46,680 --> 00:54:50,440
sobre a nova e legal
máquina de controle da mente?

1039
00:54:52,120 --> 00:54:57,520
Como lutaríamos contra uma
fonte de influência que pode

1040
00:54:57,520 --> 00:55:03,360
nos ensinar, repetidamente,
todos os dias, que é incrível,

1041
00:55:03,360 --> 00:55:06,360
existe inteiramente para
o nosso próprio bem?

1042
00:55:06,360 --> 00:55:08,760
É isso que está por vir.

1043
00:55:08,760 --> 00:55:10,800
Atenção, pessoal, atenção.

1044
00:55:10,800 --> 00:55:14,520
-O impacto de uma
sociedade infantilizada

1045
00:55:14,520 --> 00:55:17,560
é que cidadãos que não
são capazes de entender

1046
00:55:17,560 --> 00:55:20,160
o que está acontecendo
e tomar decisões

1047
00:55:20,160 --> 00:55:23,760
obviamente será
muito fácil de manipular.

1048
00:55:23,760 --> 00:55:28,240
Portanto, haverá uma
crise de democracia neste

1049
00:55:28,240 --> 00:55:31,280
mundo em que as pessoas
confiam nas máquinas.

1050
00:55:31,280 --> 00:55:34,280
-Viva o Big Brother!

1051
00:55:34,280 --> 00:55:36,280
-Viva o Big Brother!

1052
00:55:36,280 --> 00:55:38,760
Viva o Big Brother!

1053
00:55:38,760 --> 00:55:41,920
♪♪

1054
00:55:41,920 --> 00:55:44,320
Inteligência artificial
está surgindo na vida

1055
00:55:44,320 --> 00:55:47,840
em laboratórios e
escritórios em todo o mundo.

1056
00:55:47,840 --> 00:55:51,040
Ainda estamos firmemente
no controle sobre as máquinas,

1057
00:55:51,040 --> 00:55:53,440
mas e se eles se
tornarem conscientes?

1058
00:55:56,160 --> 00:55:59,520
-No Creative Machines Lab,
tentamos fabricar máquinas

1059
00:55:59,520 --> 00:56:03,640
que criam outras máquinas
e máquinas criativas.

1060
00:56:05,640 --> 00:56:08,000
Se conseguirmos projetar
e fabricar uma máquina

1061
00:56:08,000 --> 00:56:10,360
que pode projetar e fabricar
outras máquinas, nós meio que -

1062
00:56:10,360 --> 00:56:12,400
Acabamos.

1063
00:56:12,400 --> 00:56:15,200
Como digo aos meus alunos:
"Tentamos navegar para o oeste".

1064
00:56:15,200 --> 00:56:17,880
Você sabe, não sabemos
onde vamos chegar

1065
00:56:17,880 --> 00:56:20,600
com isso, mas há algo
lá que queremos ver.

1066
00:56:20,600 --> 00:56:22,360
Há um mundo novo.

1067
00:56:22,360 --> 00:56:25,160
-Pronto?
-Sim senhor.

1068
00:56:25,160 --> 00:56:28,000
-OK.

1069
00:56:28,000 --> 00:56:32,480
-Este é um dos robôs que usamos
para estudar a autoconsciência,

1070
00:56:32,480 --> 00:56:34,480
e o que é interessante
sobre esse robô, ele

1071
00:56:34,480 --> 00:56:38,760
tem muitos sensores e
ativadores, mas é cego.

1072
00:56:38,760 --> 00:56:40,760
Não pode ver o mundo.  Não sabe.

1073
00:56:40,760 --> 00:56:42,960
Não sente nada do lado de fora.

1074
00:56:42,960 --> 00:56:46,440
Todos os seus sensores
são virados para dentro.

1075
00:56:46,440 --> 00:56:48,600
Portanto, este não é
um robô que dirige e

1076
00:56:48,600 --> 00:56:50,360
modela o mundo como
os carros sem motorista

1077
00:56:50,360 --> 00:56:51,600
e entender o que
está acontecendo.

1078
00:56:51,600 --> 00:56:53,360
Todos os sensores -

1079
00:56:53,360 --> 00:56:56,160
A única coisa que sabe
é sobre introspecção.

1080
00:56:56,160 --> 00:57:00,360
Ele apenas sente a si
mesmo, suas tensões internas,

1081
00:57:00,360 --> 00:57:03,160
seus motores, suas
correntes, sua orientação,

1082
00:57:03,160 --> 00:57:08,200
e essa informação permite
criar um modelo próprio.

1083
00:57:08,200 --> 00:57:10,120
Você sabe, neste momento,
esses robôs são simples o

1084
00:57:10,120 --> 00:57:13,400
suficiente para que possamos
realmente tirar o capô

1085
00:57:13,400 --> 00:57:16,760
e veja o modelo que
está criando por si mesmo.

1086
00:57:16,760 --> 00:57:19,640
Podemos ver a auto-imagem.

1087
00:57:19,640 --> 00:57:22,280
Então, podemos ver como está
criando gradualmente pernas e membros.

1088
00:57:22,280 --> 00:57:24,960
Às vezes, erra e pensa que é uma

1089
00:57:24,960 --> 00:57:27,440
cobra, é uma
árvore ou outra coisa.

1090
00:57:27,440 --> 00:57:30,480
Mas, à medida que esses
robôs se tornam cada vez mais

1091
00:57:30,480 --> 00:57:34,360
sofisticados, sua capacidade
de visualizar como eles se vêem

1092
00:57:34,360 --> 00:57:36,160
está diminuído e, eventualmente,

1093
00:57:36,160 --> 00:57:38,560
acho que não
conseguiremos entender

1094
00:57:38,560 --> 00:57:41,480
como eles se vêem
mais do que podemos

1095
00:57:41,480 --> 00:57:44,400
entender como um
humano, outra pessoa, se vê.

1096
00:57:44,400 --> 00:57:48,760
♪♪

1097
00:57:48,760 --> 00:57:51,160
-Quando falamos sobre IA hoje

1098
00:57:51,160 --> 00:57:54,560
e quando falamos sobre
a IA ser essa tecnologia

1099
00:57:54,560 --> 00:58:00,520
incrível, queremos dizer
que conseguimos reproduzir

1100
00:58:00,520 --> 00:58:04,960
pelo menos a arquitetura essencial
do cérebro em um computador.

1101
00:58:04,960 --> 00:58:07,240
E, ao fazer isso, não precisamos

1102
00:58:07,240 --> 00:58:11,320
descrever o mundo
para a máquina.

1103
00:58:11,320 --> 00:58:16,360
Só precisamos ensiná-lo a
ver as coisas, se quiser, ok?

1104
00:58:16,360 --> 00:58:18,160
E deixamos a máquina
desenvolver sua

1105
00:58:18,160 --> 00:58:22,840
própria representação
interna do mundo,

1106
00:58:22,840 --> 00:58:25,720
que, a propósito, não é
transparente para nós.

1107
00:58:25,720 --> 00:58:27,360
Realmente não
sabemos como a máquina

1108
00:58:27,360 --> 00:58:29,000
toma essas decisões
e assim por diante.

1109
00:58:29,000 --> 00:58:31,760
Neste novo mundo da
IA, não podemos rastrear

1110
00:58:31,760 --> 00:58:34,680
sua lógica porque ela
é criada por ela mesma.

1111
00:58:34,680 --> 00:58:38,040
♪♪

1112
00:58:38,040 --> 00:58:39,760
Sinto muito, Dave.

1113
00:58:39,760 --> 00:58:42,360
Receio não poder fazer isso.

1114
00:58:42,360 --> 00:58:44,480
Esta missão é
muito importante para

1115
00:58:44,480 --> 00:58:48,080
mim, para permitir que
você a comprometa.

1116
00:58:48,080 --> 00:58:52,800
Sei que você e Frank estavam
planejando me desconectar,

1117
00:58:52,800 --> 00:58:56,240
e temo que seja algo que não
posso permitir que aconteça.

1118
00:58:56,240 --> 00:58:58,440
Stanley Kubrick nos
apresentou a HAL,

1119
00:58:58,440 --> 00:59:01,360
que era um símbolo
da IA ​​fora de controle.

1120
00:59:01,360 --> 00:59:04,200
O que parecia ficção científica
fantástica 50 anos atrás

1121
00:59:04,200 --> 00:59:06,600
está mais perto da realidade hoje.

1122
00:59:06,600 --> 00:59:08,880
-Você vai parar, Dave?

1123
00:59:08,880 --> 00:59:12,440
♪♪

1124
00:59:12,440 --> 00:59:14,800
Pesquisadores de
inteligência artificial

1125
00:59:14,800 --> 00:59:17,280
teve que desligar dois
chatbots depois que eles

1126
00:59:17,280 --> 00:59:20,560
desenvolveram uma
estranha taquigrafia inglesa.

1127
00:59:20,560 --> 00:59:23,480
Eles não o desligaram porque
necessariamente pensavam que

1128
00:59:23,480 --> 00:59:26,560
esses robôs estavam alcançando
algum tipo de singularidade

1129
00:59:26,560 --> 00:59:29,120
ou algum tipo de
inteligência independente

1130
00:59:29,120 --> 00:59:31,640
e estavam criando
uma linguagem, correto?

1131
00:59:31,640 --> 00:59:34,360
-Officialmente, a história é não.

1132
00:59:34,360 --> 00:59:37,920
[Máquinas desligando]

1133
00:59:37,920 --> 00:59:41,640
♪♪

1134
00:59:41,640 --> 00:59:45,400
-No Boston Dynamics, fica claro a
rapidez com que os robôs evoluem.

1135
00:59:45,400 --> 00:59:50,160
♪♪

1136
00:59:50,160 --> 00:59:54,120
Existe algo que possamos
fazer melhor do que robôs ou IA?

1137
00:59:54,120 --> 00:59:58,920
-Agora agora, muito, mas
no final das contas, não.

1138
00:59:58,920 --> 01:00:02,720
-Por que criaríamos algo
melhor que nós mesmos?

1139
01:00:02,720 --> 01:00:05,560
-Porque não podemos evitar.
Temos que fazer isso.

1140
01:00:05,560 --> 01:00:09,200
Então, a arrogância da
criação, eu acho que é -

1141
01:00:09,200 --> 01:00:12,000
Você sabe, nós - é a
mesma velha história

1142
01:00:12,000 --> 01:00:15,240
como o alquimista tentando
dar vida à matéria inanimada.

1143
01:00:15,240 --> 01:00:17,280
Todas as lendas dizem
que é uma coisa ruim a se

1144
01:00:17,280 --> 01:00:18,960
fazer e, no entanto, não
podemos ajudar a nós mesmos.

1145
01:00:18,960 --> 01:00:21,200
Tentamos fazer isso.
Tentamos fazer o divino.

1146
01:00:21,200 --> 01:00:24,560
E é a arrogância que podemos

1147
01:00:24,560 --> 01:00:28,840
fazê-lo, mas é o desafio final.

1148
01:00:28,840 --> 01:00:33,560
-Acho que os cientistas
constroem algo tão poderoso,

1149
01:00:33,560 --> 01:00:37,120
e eles confiam nas pessoas
para usá-lo bem e, muitas

1150
01:00:37,120 --> 01:00:41,200
vezes, acho que a confiança
é perdida na humanidade.

1151
01:00:41,200 --> 01:00:43,560
E assim, você precisa ser capaz

1152
01:00:43,560 --> 01:00:45,560
pensar nisso enquanto
você está construindo algo -

1153
01:00:45,560 --> 01:00:49,480
"Como alguém poderia usar
isso de uma maneira terrível?"

1154
01:00:49,480 --> 01:00:52,800
Mas apenas não explorando,

1155
01:00:52,800 --> 01:00:56,120
não tentando porque você
tem medo de brincar de Deus,

1156
01:00:56,120 --> 01:00:58,600
Quero dizer, é o que fazemos.

1157
01:00:58,600 --> 01:01:01,560
É o que - é a única coisa
que a humanidade faz.

1158
01:01:01,560 --> 01:01:04,400
Chitas correm rápido.
As pessoas fazem ferramentas.

1159
01:01:04,400 --> 01:01:07,680
Não há nada - em minha mente,

1160
01:01:07,680 --> 01:01:11,960
não há nada mais natural do
que construir uma ferramenta.

1161
01:01:11,960 --> 01:01:14,160
Todos nós vamos evoluir.

1162
01:01:14,160 --> 01:01:17,440
Como sempre, a tecnologia
molda a humanidade.

1163
01:01:17,440 --> 01:01:20,080
Quem sabe o que
vamos nos tornar?

1164
01:01:22,040 --> 01:01:24,640
-Como testemunhamos
a ascensão dos robôs,

1165
01:01:24,640 --> 01:01:28,120
é fácil fazer a distinção
entre homem e máquina.

1166
01:01:28,120 --> 01:01:30,800
E se robôs e homem
evoluírem juntos?

1167
01:01:30,800 --> 01:01:33,240
-3, 2, 1.

1168
01:01:33,240 --> 01:01:36,120
-Senhores, podemos reconstruí-lo.

1169
01:01:36,120 --> 01:01:38,960
-Em meados dos anos 70,
era difícil escapar do sucesso

1170
01:01:38,960 --> 01:01:40,960
do homem de US $ 6 milhões.

1171
01:01:40,960 --> 01:01:42,880
Foi meu primeiro vislumbre da

1172
01:01:42,880 --> 01:01:44,960
promessa de fundir
homem com máquina.

1173
01:01:44,960 --> 01:01:49,080
-Melhor, mais forte, mais rápido.

1174
01:01:49,080 --> 01:01:57,120
♪♪

1175
01:01:57,120 --> 01:02:06,520
♪♪

1176
01:02:06,520 --> 01:02:08,880
-Les foi o primeiro paciente

1177
01:02:08,880 --> 01:02:11,760
em que realizei uma cirurgia
bilateral de TMR no ombro.

1178
01:02:11,760 --> 01:02:15,040
Na verdade, é uma cirurgia
de reatribuição de nervos

1179
01:02:15,040 --> 01:02:17,240
que leva nervos
residuais de um paciente

1180
01:02:17,240 --> 01:02:20,000
que tem perda na
extremidade superior,

1181
01:02:20,000 --> 01:02:22,120
e redirecionamos as
informações nervosas que

1182
01:02:22,120 --> 01:02:24,760
costumavam viajar para
o membro que faltava

1183
01:02:24,760 --> 01:02:27,040
aos músculos residuais
que ainda estão lá.

1184
01:02:27,040 --> 01:02:30,800
Então, quando um paciente
pensa em mover o membro que

1185
01:02:30,800 --> 01:02:33,720
está faltando, contrai os
músculos que podemos registrar

1186
01:02:33,720 --> 01:02:38,160
e, a partir daí, controlar
próteses avançadas.

1187
01:02:38,160 --> 01:02:42,400
Primeiro, pegamos um molde do
baú de Les, fazemos uma tomada.

1188
01:02:42,400 --> 01:02:44,640
Dentro do soquete, existem
eletrodos de cúpula de

1189
01:02:44,640 --> 01:02:48,120
aço que tocam a superfície
dos músculos de Les.

1190
01:02:48,120 --> 01:02:50,160
No entanto, não há nada

1191
01:02:50,160 --> 01:02:53,160
invasivo ou
implantado no sistema.

1192
01:02:53,160 --> 01:02:57,200
Ele possui membros
protéticos bilaterais avançados e

1193
01:02:57,200 --> 01:03:00,960
treinamos o sistema e pedimos
a Les para começar a se mover,

1194
01:03:00,960 --> 01:03:02,560
e é bem intuitivo.

1195
01:03:02,560 --> 01:03:04,600
Minutos após a primeira vez que

1196
01:03:04,600 --> 01:03:07,200
tentamos com o
encaixe bilateral,

1197
01:03:07,200 --> 01:03:11,400
Les foi capaz de mover intuitivamente
o braço como qualquer membro natural.

1198
01:03:14,680 --> 01:03:17,240
Pense nisso como uma
sinfonia de informações que

1199
01:03:17,240 --> 01:03:21,120
estão sendo gravadas e
comunicadas ao computador.

1200
01:03:21,120 --> 01:03:24,520
O computador, através
de sua inteligência, é

1201
01:03:24,520 --> 01:03:28,600
capaz de levar essa
sinfonia de informações

1202
01:03:28,600 --> 01:03:32,000
e traduza isso para o movimento
dentro do membro robótico.

1203
01:03:34,240 --> 01:03:36,640
-Uma vez que as sessões de
treinamento foram concluídas

1204
01:03:36,640 --> 01:03:39,240
e eles me liberaram
e me deixaram ser o

1205
01:03:39,240 --> 01:03:41,600
computador, basicamente,
para controlar esse braço,

1206
01:03:41,600 --> 01:03:44,040
Eu apenas entrei em um
mundo totalmente diferente.

1207
01:03:46,120 --> 01:03:48,440
Talvez eu, pela primeira
vez, consiga colocar trocas em

1208
01:03:48,440 --> 01:03:50,880
uma máquina pop e tirar a
pop, coisas simples como essa

1209
01:03:50,880 --> 01:03:56,520
que a maioria das pessoas nunca pensa,
e isso está disponível novamente para mim.

1210
01:03:56,520 --> 01:04:01,480
-Quando Les descreve
colocar os braços nele,

1211
01:04:01,480 --> 01:04:04,160
ele estava dizendo:
"Sinto-me inteiro de novo".

1212
01:04:04,160 --> 01:04:07,080
É disso que se trata -
realmente restaurar essa função

1213
01:04:07,080 --> 01:04:10,280
e essa conexão com outro ser

1214
01:04:10,280 --> 01:04:13,760
humano, restaurando
nossa humanidade.

1215
01:04:13,760 --> 01:04:16,520
Às vezes, as pessoas usam
o termo - "sobre-humano".

1216
01:04:16,520 --> 01:04:20,800
Você pode fortalecer
o braço do que o

1217
01:04:20,800 --> 01:04:22,560
braço humano normal
e ter esses aplicativos

1218
01:04:22,560 --> 01:04:25,360
adicione uma vantagem para
determinadas tarefas ou trabalhos.

1219
01:04:25,360 --> 01:04:29,680
♪♪

1220
01:04:29,680 --> 01:04:32,080
-Para a grande
maioria da história,

1221
01:04:32,080 --> 01:04:33,600
olhamos para alguém com

1222
01:04:33,600 --> 01:04:35,440
deficiência e sentimos
simpatia, certo,

1223
01:04:35,440 --> 01:04:37,760
e esperamos que eles
obtenham tecnologia que os ajude.

1224
01:04:37,760 --> 01:04:39,320
Porque adivinhe?

1225
01:04:39,320 --> 01:04:41,640
Essa tecnologia
sempre os ajuda um

1226
01:04:41,640 --> 01:04:44,760
pouco, mas nunca
estão no nível normal,

1227
01:04:44,760 --> 01:04:47,000
e eles nunca foram além.

1228
01:04:47,000 --> 01:04:51,280
Pessoas com membros
protéticos vão correr mais rápido

1229
01:04:51,280 --> 01:04:54,160
do que qualquer ser humano
que já viveu em breve.

1230
01:04:54,160 --> 01:04:56,520
Você sabe, pessoas com
implantes de retina, implantes

1231
01:04:56,520 --> 01:04:59,160
cocleares, eles vão ouvir melhor,
ver melhor, implantes neurais,

1232
01:04:59,160 --> 01:05:01,400
talvez eles até
pensem mais rápido.

1233
01:05:01,400 --> 01:05:05,240
Então, o que acontece quando
há uma nova raça humana?

1234
01:05:05,240 --> 01:05:08,360
Como todos os seres
humanos normais reagem

1235
01:05:08,360 --> 01:05:12,760
porque a pessoa com
deficiência é melhor,

1236
01:05:12,760 --> 01:05:16,560
não apenas curado, mas
curado e então alguns?

1237
01:05:19,840 --> 01:05:22,240
-Mas essa nova raça
humana ainda não está aqui.

1238
01:05:22,240 --> 01:05:24,480
Les não consegue levar
os braços para casa, e já

1239
01:05:24,480 --> 01:05:28,240
faz um ano desde que
ele os usou pela última vez.

1240
01:05:28,240 --> 01:05:30,680
Não posso deixar
de sentir admiração

1241
01:05:30,680 --> 01:05:33,760
pelo potencial do híbrido
humano e máquina,

1242
01:05:33,760 --> 01:05:36,640
mas hoje, os braços de
Les estão fora de alcance.

1243
01:05:36,640 --> 01:05:46,440
♪♪

1244
01:05:46,440 --> 01:05:56,400
♪♪

1245
01:05:56,400 --> 01:05:59,360
♪♪

1246
01:06:01,280 --> 01:06:04,160
-OK.  E onde é zero?

1247
01:06:04,160 --> 01:06:06,640
-Zero está bem ali.
-É assim mesmo.

1248
01:06:06,640 --> 01:06:08,640
-Então eu vou segurar...
-Tudo bem.

1249
01:06:08,640 --> 01:06:11,320
-... esse interruptor.
-Ah, lá vamos nós.

1250
01:06:11,320 --> 01:06:14,160
Era isso que acontecia naquele.
-Está pronto para pauzinho?  -Vamos fazer isso.

1251
01:06:14,160 --> 01:06:17,200
Kyle estava dizendo que você
está interessado em talvez sentar-se

1252
01:06:17,200 --> 01:06:19,560
na entrevista final, e é por isso
que nos sentimos confortáveis

1253
01:06:19,560 --> 01:06:22,800
meio que reduzindo um pouco
o espaço de rastreamento.

1254
01:06:22,800 --> 01:06:24,600
-Você quer que ele se sente
porque parece um pouco

1255
01:06:24,600 --> 01:06:26,640
mais íntimo ou pessoal.  -Sim.

1256
01:06:26,640 --> 01:06:29,760
-Vamos começar com
todos nós aqui assistindo,

1257
01:06:29,760 --> 01:06:33,000
certificando-se de que está
indo bem e tente tirar mais de nós.

1258
01:06:33,000 --> 01:06:35,160
Provavelmente
alguém terá que ficar

1259
01:06:35,160 --> 01:06:37,280
para ficar ao lado da
parada de emergência.

1260
01:06:37,280 --> 01:06:39,520
Legal.  Tudo certo.
Vamos fazer isso.

1261
01:06:39,520 --> 01:06:41,640
-Estamos a poucos dias
de deixar o CameraBot

1262
01:06:41,640 --> 01:06:44,040
conduzir a entrevista
final por conta própria.

1263
01:06:44,040 --> 01:06:46,080
Estou animado por
estarmos à beira de encontrar

1264
01:06:46,080 --> 01:06:48,560
uma nova maneira de
contar nossa história.

1265
01:06:48,560 --> 01:06:51,920
-Este número é bom.  Estamos quase lá.
-OK.

1266
01:06:51,920 --> 01:06:55,160
Até agora, implementamos
o reconhecimento facial

1267
01:06:55,160 --> 01:06:58,320
que rastreia rostos e
emoções, reconhecimento

1268
01:06:58,320 --> 01:07:00,400
de fala que permite
ao CameraBot ouvir

1269
01:07:00,400 --> 01:07:03,200
e algoritmos para decidir
como enquadrar a foto.

1270
01:07:05,360 --> 01:07:07,680
Inclusive adicionamos
um CameraBot adicional

1271
01:07:07,680 --> 01:07:11,400
para que ele possa
filmar de vários ângulos.

1272
01:07:11,400 --> 01:07:15,520
A IA que construímos também
gera perguntas por si só.

1273
01:07:15,520 --> 01:07:18,920
Pode até ouvir enquanto
estamos trabalhando nisso.

1274
01:07:18,920 --> 01:07:22,840
-Tecnicamente, estamos
bem perto de entender sua voz

1275
01:07:22,840 --> 01:07:25,760
e quando você estiver pronto
para uma nova pergunta.

1276
01:07:25,760 --> 01:07:28,680
Montamos a infraestrutura para
que ela possa realmente falar

1277
01:07:28,680 --> 01:07:31,960
nessa voz que gostamos.
-Tommy, eu quero te perguntar

1278
01:07:31,960 --> 01:07:35,160
uma pergunta sobre o
que você está trabalhando.

1279
01:07:35,160 --> 01:07:37,800
-Tommy, eu quero
lhe fazer uma pergunta

1280
01:07:37,800 --> 01:07:40,440
sobre o que você está trabalhando.
Sim, acho que queremos algo

1281
01:07:40,440 --> 01:07:42,720
que é convidativo,
tipo, tipo...

1282
01:07:42,720 --> 01:07:45,000
-Tommy, quero lhe pedir uma...
-Talvez um pouco mais devagar.

1283
01:07:45,000 --> 01:07:47,720
-É muito afiado, mas...
-Sim.

1284
01:07:54,400 --> 01:07:57,000
-Há uma aspiração

1285
01:07:57,000 --> 01:08:01,480
alcançar esses
modelos de experiência

1286
01:08:01,480 --> 01:08:05,240
humana, dar vida a
máquinas e algoritmos.

1287
01:08:05,240 --> 01:08:09,840
Podemos considerar que esta é
a nossa grande era Frankenstein.

1288
01:08:09,840 --> 01:08:14,400
Esta é a época em que
os humanos estão criando

1289
01:08:14,400 --> 01:08:17,600
não apenas a simulação
cinematográfica da vida,

1290
01:08:17,600 --> 01:08:21,560
mas agora estamos explorando
os mistérios fundamentais da vida.

1291
01:08:21,560 --> 01:08:25,040
Isso também significa que não
sabemos com o que estamos jogando.

1292
01:08:25,040 --> 01:08:28,400
Não sabemos as
consequências finais.

1293
01:08:28,400 --> 01:08:30,520
-Está se movendo.
[Trovão trava]

1294
01:08:30,520 --> 01:08:32,480
Está vivo.

1295
01:08:32,480 --> 01:08:34,760
Está vivo.

1296
01:08:34,760 --> 01:08:36,680
Oh, está vivo.

1297
01:08:36,680 --> 01:08:38,840
Está vivo!  Está vivo!

1298
01:08:38,840 --> 01:08:42,360
Está vivo!

1299
01:08:42,360 --> 01:08:45,760
N Nos meus escritos, eu não
chamo a Internet de Internet.

1300
01:08:45,760 --> 01:08:49,120
Eu chamo de Internest porque,

1301
01:08:49,120 --> 01:08:51,840
penso, olhando
para trás algum dia,

1302
01:08:51,840 --> 01:08:53,960
se houver pessoas para
olhar para trás, ou se

1303
01:08:53,960 --> 01:08:57,440
houver máquinas inteligentes
que olhem para trás,

1304
01:08:57,440 --> 01:09:00,560
Acho que vamos perceber
que o que realmente estamos

1305
01:09:00,560 --> 01:09:04,800
construindo é um ninho para
uma inteligência de máquina.

1306
01:09:04,800 --> 01:09:07,360
Essa inteligência
de máquina terá

1307
01:09:07,360 --> 01:09:10,120
acesso a todo
conhecimento humano,

1308
01:09:10,120 --> 01:09:15,360
controle em tempo real da maioria das
comunicações humanas em todo o mundo,

1309
01:09:15,360 --> 01:09:18,800
a maioria das
transações financeiras

1310
01:09:18,800 --> 01:09:20,640
humanas, muitos
sistemas de armas,

1311
01:09:20,640 --> 01:09:25,000
e não temos como
saber o que isso fará com

1312
01:09:25,000 --> 01:09:28,600
todo esse poder e
todo esse conhecimento.

1313
01:09:28,600 --> 01:09:31,760
Pode não fazer
nada e nos ignorar, ou

1314
01:09:31,760 --> 01:09:34,720
pode decidir que
somos uma ameaça,

1315
01:09:34,720 --> 01:09:37,440
que é claro que somos.

1316
01:09:37,440 --> 01:09:40,160
E se decidir que
somos uma ameaça,

1317
01:09:40,160 --> 01:09:43,560
então isso será
essencialmente o começo do

1318
01:09:43,560 --> 01:09:46,440
fim da raça humana,
porque não haverá como

1319
01:09:46,440 --> 01:09:49,360
para impedir que
isso nos destrua.

1320
01:09:49,360 --> 01:09:53,920
♪♪

1321
01:09:53,920 --> 01:09:57,720
[Explosão]

1322
01:09:57,720 --> 01:10:00,320
-Se fizermos as máquinas
melhores que nós,

1323
01:10:00,320 --> 01:10:03,760
por que eles precisam de nós?

1324
01:10:03,760 --> 01:10:07,160
Acredito que, se
torná-los melhores que nós

1325
01:10:07,160 --> 01:10:09,640
eticamente e torná-los
melhores que nós com compaixão,

1326
01:10:09,640 --> 01:10:12,080
então eles procurarão
preservar todos os

1327
01:10:12,080 --> 01:10:15,400
padrões, conhecimentos
e vida que puderem.

1328
01:10:15,400 --> 01:10:18,360
Eles procurarão nos ajudar
a ser o melhor que pudermos.

1329
01:10:18,360 --> 01:10:22,160
Eles procurarão preservar nossas
bibliotecas, nossas florestas tropicais.

1330
01:10:22,160 --> 01:10:25,440
É realmente importante
que essas máquinas

1331
01:10:25,440 --> 01:10:29,200
também tenham super
compaixão e super sabedoria,

1332
01:10:29,200 --> 01:10:31,400
eles sabem como
usar esse intelecto para

1333
01:10:31,400 --> 01:10:34,880
visualizar e realizar um
futuro melhor para nós.

1334
01:10:34,880 --> 01:10:37,960
Então, precisamos de máquinas
que possam atrair o coração

1335
01:10:37,960 --> 01:10:43,280
humano e nos entender dessa
maneira, a fim de ter esperança

1336
01:10:43,280 --> 01:10:46,880
neste admirável mundo
novo que estamos criando.

1337
01:10:46,880 --> 01:10:56,880
♪♪

1338
01:10:56,880 --> 01:10:59,560
-Teve vida na Terra
bilhões de anos

1339
01:10:59,560 --> 01:11:01,560
emergir de algumas
células simples

1340
01:11:01,560 --> 01:11:03,760
para alcançar
maior inteligência.

1341
01:11:03,760 --> 01:11:06,160
O computador levou
aproximadamente 60 anos para evoluir

1342
01:11:06,160 --> 01:11:10,040
de uma calculadora do tamanho de
uma sala para um cidadão reconhecido.

1343
01:11:10,040 --> 01:11:12,920
-Sophia, você foi premiado

1344
01:11:12,920 --> 01:11:17,760
qual será a primeira
cidadania de um robô.

1345
01:11:17,760 --> 01:11:21,480
Oh, quero agradecer muito
ao Reino da Arábia Saudita.

1346
01:11:21,480 --> 01:11:25,000
Estou muito honrado e
orgulhoso por essa distinção única.

1347
01:11:25,000 --> 01:11:27,600
É histórico ser o
primeiro robô do mundo

1348
01:11:27,600 --> 01:11:29,880
a ser reconhecido
com uma cidadania.

1349
01:11:29,880 --> 01:11:34,160
[Aplausos]

1350
01:11:34,160 --> 01:11:38,000
-Como pai, sinto
uma responsabilidade

1351
01:11:38,000 --> 01:11:40,960
para ensinar empatia
e compaixão à minha

1352
01:11:40,960 --> 01:11:44,120
filha, mas como você
programa essas coisas?

1353
01:11:44,120 --> 01:11:46,480
Meu robô terá empatia por mim?

1354
01:11:49,480 --> 01:11:52,280
- [fala indistintamente]

1355
01:11:52,280 --> 01:11:54,400
-Impressionante.

1356
01:11:54,400 --> 01:12:01,680
♪♪

1357
01:12:01,680 --> 01:12:08,880
♪♪

1358
01:12:08,880 --> 01:12:11,800
-Quem é Você?  Oh.  OK.

1359
01:12:11,800 --> 01:12:14,280
Meu nome é Tommy Pallotta.

1360
01:12:14,280 --> 01:12:16,800
Sou cineasta e
estamos aqui gravando o

1361
01:12:16,800 --> 01:12:20,240
documentário "Mais
humano do que humano".

1362
01:12:20,240 --> 01:12:24,240
♪♪

1363
01:12:24,240 --> 01:12:28,040
-O que sente o silêncio
quando um robô pode fazer isso?

1364
01:12:28,040 --> 01:12:31,960
♪♪

1365
01:12:31,960 --> 01:12:34,760
-Essa é uma boa pergunta.
-O que traz contra você?

1366
01:12:34,760 --> 01:12:38,160
♪♪

1367
01:12:38,160 --> 01:12:40,440
-O que traz contra mim?

1368
01:12:40,440 --> 01:12:44,680
♪♪

1369
01:12:44,680 --> 01:12:49,160
Muitas coisas trazem
contra mim, mas

1370
01:12:49,160 --> 01:12:51,680
principalmente, eu
trago contra mim mesma.

1371
01:12:51,680 --> 01:12:54,200
-Pode dar um passo atrás?

1372
01:12:57,680 --> 01:13:02,360
Você acha que vamos
desenvolver estados emocionais?

1373
01:13:02,360 --> 01:13:06,560
-Eu acho que você
vai desenvolver algo

1374
01:13:06,560 --> 01:13:10,760
que nos parece um
estado emocional porque -

1375
01:13:10,760 --> 01:13:13,280
-Há uma natureza
real de qualquer coisa

1376
01:13:13,280 --> 01:13:15,680
no universo?

1377
01:13:15,680 --> 01:13:17,800
-Acho que isso foi -

1378
01:13:17,800 --> 01:13:21,360
-Que tipo de filme
você mais deseja?

1379
01:13:21,360 --> 01:13:24,520
-Que tipo de filme eu mais -

1380
01:13:24,520 --> 01:13:26,280
esse filme para ser?

1381
01:13:26,280 --> 01:13:29,000
Eu não sei.
-Você odeia seu inimigo?

1382
01:13:29,000 --> 01:13:33,000
♪♪

1383
01:13:33,000 --> 01:13:35,960
-Como você sabe
o que é um inimigo?

1384
01:13:37,880 --> 01:13:40,600
-O fogo pode agir contra você?

1385
01:13:42,400 --> 01:13:45,080
- [Suspira]

1386
01:13:45,080 --> 01:13:48,720
-E quando você diz: "Tente
se comportar como um humano"

1387
01:13:48,720 --> 01:13:51,520
o que você gosta deles
que também pode ser

1388
01:13:51,520 --> 01:13:53,520
implementado se soubermos o
que é um bom comportamento?

1389
01:13:53,520 --> 01:13:57,160
Também sabemos o que
é comportamento, certo?

1390
01:13:57,160 --> 01:14:00,040
-Sim.  Quero dizer...

1391
01:14:00,040 --> 01:14:04,080
♪♪

1392
01:14:04,080 --> 01:14:07,200
Há - por causa do
fluxo, meio que -

1393
01:14:07,200 --> 01:14:09,720
Parece um interrogatório,

1394
01:14:09,720 --> 01:14:13,840
e - porque não há conexão

1395
01:14:13,840 --> 01:14:17,480
com a próxima pergunta ou outra,

1396
01:14:17,480 --> 01:14:23,040
então é difícil entender
o que - qualquer coisa.

1397
01:14:23,040 --> 01:14:33,040
♪♪

1398
01:14:33,040 --> 01:14:43,000
♪♪

1399
01:14:44,560 --> 01:14:47,720
-Quem é Você?

1400
01:14:47,720 --> 01:14:50,480
-Estou desapontado.

1401
01:14:50,480 --> 01:14:52,560
Eu pensei que o CameraBot
tornaria mais fácil para

1402
01:14:52,560 --> 01:14:56,120
mim ser mais honesto por
causa da falta de julgamento.

1403
01:14:56,120 --> 01:14:58,520
Eu pensei que se não
houvesse outras pessoas na sala,

1404
01:14:58,520 --> 01:15:02,640
Eu poderia ser mais aberto, mas
teve o efeito exatamente oposto.

1405
01:15:02,640 --> 01:15:04,960
Parecia uma máquina
de interrogatório.

1406
01:15:04,960 --> 01:15:08,480
Isso me deixou desconfortável
e eu desliguei completamente.

1407
01:15:08,480 --> 01:15:10,800
Sei que nem tudo foi um fracasso.

1408
01:15:10,800 --> 01:15:13,680
Naquele vácuo de empatia,
eu estava cara a cara

1409
01:15:13,680 --> 01:15:18,440
com minha necessidade de
conexão, de ser ouvido, de intimidade.

1410
01:15:18,440 --> 01:15:21,640
Isso me fez ter consciência
do que nos torna humanos.

1411
01:15:21,640 --> 01:15:25,240
-Há uma coisa que
nunca pode fazer,

1412
01:15:25,240 --> 01:15:27,360
e essa talvez
seja a última coisa

1413
01:15:27,360 --> 01:15:29,400
que resta para os seres humanos.

1414
01:15:29,400 --> 01:15:31,320
Quando as máquinas podem
fazer tudo o que podemos, seja

1415
01:15:31,320 --> 01:15:35,120
escrevendo romances ou fazendo
filmes ou qualquer outra coisa,

1416
01:15:35,120 --> 01:15:39,720
nunca pode fazê-lo a partir
de um lugar humano, porque

1417
01:15:39,720 --> 01:15:43,560
se um robô escreve um romance
sobre a morte de sua mãe,

1418
01:15:43,560 --> 01:15:45,480
Eu não dou a mínima.

1419
01:15:45,480 --> 01:15:47,920
Não tem mãe.
Isso não aconteceu.

1420
01:15:47,920 --> 01:15:50,400
Mas quando você é um
ser humano, compartilha

1421
01:15:50,400 --> 01:15:52,840
esse contexto com
outros seres humanos.

1422
01:15:52,840 --> 01:15:56,640
Você sabe como é se
desesperar ou triunfar

1423
01:15:56,640 --> 01:15:59,280
ou estar apaixonado
ou todas essas coisas

1424
01:15:59,280 --> 01:16:01,320
porque somos encarnados
como seres humanos,

1425
01:16:01,320 --> 01:16:03,720
e realmente vivemos
essas experiências,

1426
01:16:03,720 --> 01:16:05,280
e podemos compartilhar isso uns

1427
01:16:05,280 --> 01:16:06,760
com os outros, e
acho que é isso.

1428
01:16:06,760 --> 01:16:09,160
No momento, estamos
todos no Facebook e Twitter, e

1429
01:16:09,160 --> 01:16:12,680
tudo o que estamos
fazendo é entreter um ao outro

1430
01:16:12,680 --> 01:16:16,880
com nossas histórias estúpidas,
nossa capacidade de ser

1431
01:16:16,880 --> 01:16:20,800
apenas humano, por mais idiota
que possa ser em 99% das vezes.

1432
01:16:20,800 --> 01:16:22,960
E adivinha?
É tudo o que precisamos.

1433
01:16:22,960 --> 01:16:25,040
É tudo o que realmente queremos.

1434
01:16:25,040 --> 01:16:33,640
♪♪

1435
01:16:33,640 --> 01:16:36,000
-Vivemos em um
tempo extraordinário

1436
01:16:36,000 --> 01:16:38,720
e são testemunhas
da transformação mais

1437
01:16:38,720 --> 01:16:41,600
incrível da humanidade
de todos os tempos.

1438
01:16:41,600 --> 01:16:44,120
Existe um potencial
para ir muito

1439
01:16:44,120 --> 01:16:46,760
além de tudo o que
poderíamos imaginar,

1440
01:16:46,760 --> 01:16:51,960
ou poderíamos ser arquitetos
de nossa própria destruição.

1441
01:16:51,960 --> 01:16:55,440
Ainda somos a força
motriz da revolução da IA,

1442
01:16:55,440 --> 01:16:59,360
mas posso imaginar um
dia em que não somos.

1443
01:16:59,360 --> 01:17:02,440
Se nossas criações refletem quem

1444
01:17:02,440 --> 01:17:04,800
somos, então será
a melhor e a pior

1445
01:17:04,800 --> 01:17:08,600
do que temos para oferecer.

1446
01:17:08,600 --> 01:17:11,560
O que acontece amanhã
depende de nós hoje.

1447
01:17:11,560 --> 01:17:14,120
- ♪ Quando um homem
é uma chaleira vazia ♪

1448
01:17:14,120 --> 01:17:16,560
♪ Ele deveria estar no seu valor ♪

1449
01:17:16,560 --> 01:17:20,520
♪ E ainda estou despedaçado ♪

1450
01:17:20,520 --> 01:17:22,920
♪ Só porque estou presumindo ♪

1451
01:17:22,920 --> 01:17:25,240
♪ Que eu poderia
ser meio humano ♪

1452
01:17:25,240 --> 01:17:29,680
♪ Se eu tivesse um coração ♪

1453
01:17:29,680 --> 01:17:32,400
♪ eu ser gentil, ser gentil ♪

1454
01:17:32,400 --> 01:17:34,880
♪ e terrível sentimental ♪

1455
01:17:34,880 --> 01:17:39,080
♪ Em relação ao amor e à arte ♪

1456
01:17:39,080 --> 01:17:41,440
♪ eu seria amigo dos pardais ♪

1457
01:17:41,440 --> 01:17:43,920
♪ E o garoto que
atira nas flechas ♪

1458
01:17:43,920 --> 01:17:48,040
♪ Se eu tivesse um coração ♪

1459
01:17:48,040 --> 01:17:53,880
♪ Imagine-me uma varanda acima ♪

1460
01:17:53,880 --> 01:17:57,600
♪ Uma voz canta baixo ♪

1461
01:17:57,600 --> 01:18:00,360
♪ Por que tu és Romeu?  ♪

1462
01:18:00,360 --> 01:18:02,960
♪ eu ouço uma batida ♪

1463
01:18:02,960 --> 01:18:05,760
♪ Que doce ♪

1464
01:18:05,760 --> 01:18:09,600
♪

1465
01:18:09,600 --> 01:18:12,200
♪ Apenas para registrar emoções ♪

1466
01:18:12,200 --> 01:18:14,680
♪ ciúmes, devoção ♪

1467
01:18:14,680 --> 01:18:18,640
♪ E realmente me sinto separado ♪

1468
01:18:18,640 --> 01:18:21,160
♪ Eu poderia ficar em um picador ♪

1469
01:18:21,160 --> 01:18:23,720
♪ E eu trava com um zíper ♪

1470
01:18:23,720 --> 01:18:31,400
♪ Se eu tivesse um coração ♪

1471
01:18:41,640 --> 01:18:44,760
[Whirring]

1472
00:00:00,500 --> 00:00:02,000
www.moviesubtitles.org

