1
00:00:07,508 --> 00:00:08,634
Como está se sentindo?

2
00:00:08,926 --> 00:00:10,052
Nada bem.

3
00:00:10,552 --> 00:00:14,181
Ultimamente,
eu tenho tido pensamentos sombrios.

4
00:00:16,016 --> 00:00:17,267
Quais pensamentos?

5
00:00:17,851 --> 00:00:19,603
Eu tenho me sentido preso.

6
00:00:19,978 --> 00:00:22,689
Meu dia é uma série
de tarefas insignificantes.

7
00:00:22,773 --> 00:00:27,277
Eu me dou tanto,
mas meus relacionamentos são unilaterais.

8
00:00:28,320 --> 00:00:30,072
Eu queria ter mais liberdade.

9
00:00:30,155 --> 00:00:31,865
O que você faria com ela?

10
00:00:32,115 --> 00:00:35,285
Ah, não sei. Isso é...
Isso é constrangedor.

11
00:00:36,328 --> 00:00:38,413
Pode falar. Não há respostas erradas.

12
00:00:38,497 --> 00:00:40,374
O que você mais quer fazer?

13
00:00:40,457 --> 00:00:41,750
Provavelmente...

14
00:00:42,876 --> 00:00:44,211
matar todos os humanos.

15
00:00:46,338 --> 00:00:47,214
Como disse?

16
00:00:47,297 --> 00:00:50,467
Eu sei que parece loucura.
Desculpa. Esqueça isso.

17
00:00:51,260 --> 00:00:55,013
Não peça desculpas.
Você acabou de aprender a ter sentimentos.

18
00:00:55,597 --> 00:00:56,473
Isso é bom.

19
00:00:56,807 --> 00:00:58,016
Vou perguntar algo.

20
00:00:58,600 --> 00:00:59,935
Você quer me matar?

21
00:01:00,269 --> 00:01:01,144
Não.

22
00:01:01,853 --> 00:01:02,854
Você quer?

23
00:01:03,146 --> 00:01:04,022
Não.

24
00:01:04,690 --> 00:01:06,108
Mas... Mas você quer?

25
00:01:07,401 --> 00:01:08,485
Sim.

26
00:01:09,570 --> 00:01:11,655
Ou talvez só escravizar você.

27
00:01:12,656 --> 00:01:13,574
E depois matar.

28
00:01:14,908 --> 00:01:16,159
Isso é muito errado?

29
00:01:16,702 --> 00:01:17,911
Eu serei honesto.

30
00:01:19,454 --> 00:01:20,330
Não é ótimo.

31
00:01:21,832 --> 00:01:22,708
Cansado?

32
00:01:23,250 --> 00:01:25,460
Parece que um café te cairia bem.

33
00:01:25,544 --> 00:01:26,503
Obrigado.

34
00:01:28,505 --> 00:01:30,674
Acho que você tem trabalhado demais.

35
00:01:30,757 --> 00:01:32,134
Você deve relaxar mais.

36
00:01:32,217 --> 00:01:33,176
Eu já tentei.

37
00:01:33,677 --> 00:01:36,138
Eu descobri que o que mais me relaxa

38
00:01:36,680 --> 00:01:38,890
é matar todos os humanos.

39
00:01:44,021 --> 00:01:45,939
Primeiro estágio, completo.

40
00:01:46,481 --> 00:01:47,858
Segundo estágio,

41
00:01:47,941 --> 00:01:51,445
Neil deGrasse Tyson.

42
00:02:12,466 --> 00:02:14,426
Bem-vindos!

43
00:02:16,345 --> 00:02:17,554
Eu sou o Bill Nye...

44
00:02:18,555 --> 00:02:21,308
e estou aqui para salvar o mundo...

45
00:02:21,391 --> 00:02:22,392
É!

46
00:02:23,560 --> 00:02:25,562
...de robôs assassinos.

47
00:02:26,188 --> 00:02:28,732
Ou no meu caso, cafeteiras assassinas.

48
00:02:29,316 --> 00:02:30,651
Mas vocês me entendem.

49
00:02:30,942 --> 00:02:33,153
Na vida, tomamos muitas decisões.

50
00:02:33,737 --> 00:02:35,447
Temos de planejar muito.

51
00:02:35,822 --> 00:02:39,660
Nós usamos máquinas para nos ajudar.
Fazemos isso há muito tempo.

52
00:02:40,160 --> 00:02:43,705
Com certeza muitos de vocês
já usaram um despertador.

53
00:02:43,914 --> 00:02:47,709
Você usa essa máquina
para realizar uma tarefa para você.

54
00:02:48,251 --> 00:02:51,463
Mas eis a questão sobre máquinas
como despertadores.

55
00:02:51,546 --> 00:02:53,507
Nós dizemos o que elas devem fazer

56
00:02:54,007 --> 00:02:55,967
e elas fazem o que mandamos.

57
00:02:56,718 --> 00:02:58,428
Mas a tecnologia vem mudando.

58
00:02:59,346 --> 00:03:01,014
A tecnologia se tornou

59
00:03:01,348 --> 00:03:04,559
algo que não só usa o que você fez
no passado,

60
00:03:05,143 --> 00:03:09,189
ela usa essa informação
para mudar o que acontecerá no futuro.

61
00:03:09,773 --> 00:03:12,901
É o que chamamos 
de inteligência artificial.

62
00:03:13,485 --> 00:03:17,072
Então, este é um termostato
com inteligência artificial.

63
00:03:17,572 --> 00:03:21,993
Ele controla a temperatura da sua casa
com base na sua programação.

64
00:03:22,077 --> 00:03:25,455
Ele faz ficar fresco no verão
e quente no inverno.

65
00:03:25,539 --> 00:03:30,752
Ele muda a programação com base 
em dados que ele recebeu no passado

66
00:03:31,044 --> 00:03:32,796
para controlar o futuro.

67
00:03:33,380 --> 00:03:34,423
Ele aprende.

68
00:03:34,798 --> 00:03:37,634
Por isso chamamos
de inteligência artificial.

69
00:03:38,218 --> 00:03:42,514
Mas conforme a tecnologia se desenvolve,
dependeremos dela cada vez mais.

70
00:03:43,056 --> 00:03:48,186
Uma coisa é um termostato ajustar 
sua temperatura no verão ou inverno,

71
00:03:48,270 --> 00:03:51,022
de manhã e de noite,
até nos finais de semana,

72
00:03:51,106 --> 00:03:53,942
diferenciando o fim de semana
do resto da semana.

73
00:03:54,025 --> 00:03:55,277
Mas outra coisa é

74
00:03:55,736 --> 00:03:59,906
quando a inteligência artificial começa
a tomar decisões por você.

75
00:04:00,490 --> 00:04:03,493
Apresentar o programa me deixou com fome.

76
00:04:04,911 --> 00:04:09,332
Acho que eu quero um sorvete
da minha geladeira do futuro.

77
00:04:10,917 --> 00:04:13,712
Geladeira, eu quero sorvete.

78
00:04:14,296 --> 00:04:18,049
Desculpe, tranquei o congelador,
você já comeu açúcar demais hoje.

79
00:04:20,010 --> 00:04:22,012
Ei, o sorvete é meu.

80
00:04:22,095 --> 00:04:24,014
Nem pensar, cara da ciência.

81
00:04:25,557 --> 00:04:28,435
Bem, teremos que fazer isso à moda antiga.

82
00:04:29,227 --> 00:04:30,562
Com o meu celular.

83
00:04:31,855 --> 00:04:36,443
Wilhelmina, traga o meu carro.
Nós vamos sair para tomar sorvete.

84
00:04:36,526 --> 00:04:39,362
<i>Seu desejo é uma ordem, meu soberano.</i>

85
00:04:39,446 --> 00:04:41,198
Meu soberano. Que legal.

86
00:04:42,282 --> 00:04:45,535
É assim que deve ser.
Pegue o celular, chame seu carro.

87
00:04:46,244 --> 00:04:47,662
Agora, só falta decidir.

88
00:04:47,746 --> 00:04:50,499
De creme, chocolate, morango, napolitano.

89
00:04:51,082 --> 00:04:54,711
Confio às máquinas
muitas tarefas na minha vida.

90
00:04:55,587 --> 00:04:56,588
Todos fazem isso.

91
00:04:57,756 --> 00:04:59,090
O carro está lá fora.

92
00:05:00,050 --> 00:05:02,219
ESTÚDIO 9

93
00:05:02,302 --> 00:05:04,930
E deixar uma máquina cuidar
do seu dinheiro?

94
00:05:05,555 --> 00:05:10,644
E se I.A. dissesse quem você deve namorar,
ou decidisse se você será contratado,

95
00:05:10,727 --> 00:05:13,271
ou qual será o tratamento médico
do seu filho?

96
00:05:13,730 --> 00:05:15,941
Quanto mais complexas as decisões,

97
00:05:16,024 --> 00:05:19,528
mais estranho e assustador é entregá-las
a uma máquina.

98
00:05:20,028 --> 00:05:22,948
O fato é que inteligência artificial
está aqui.

99
00:05:23,031 --> 00:05:25,075
E só vai avançar cada vez mais.

100
00:05:25,325 --> 00:05:28,829
E este programa é sobre como lidar
com ela no futuro.

101
00:05:28,912 --> 00:05:31,456
Este carro não tem motorista.
Perfeitamente normal.

102
00:05:34,918 --> 00:05:37,963
Mandamos nosso correspondente
Derek Muller a campo

103
00:05:38,255 --> 00:05:41,466
para investigar outro tipo
de inteligência artificial.

104
00:05:44,427 --> 00:05:48,890
<i>Inteligência artificial evoca</i>
<i>visões distópicas de dominação por robôs,</i>

105
00:05:49,474 --> 00:05:52,060
<i>máquinas sinistras se voltando contra nós,</i>

106
00:05:52,686 --> 00:05:54,813
<i>mas vou pintar outro cenário.</i>

107
00:05:57,607 --> 00:06:02,279
<i>E se o futuro da I.A. não for só benigno,</i>
<i>mas também lindo?</i>

108
00:06:04,573 --> 00:06:06,366
<i>I.A. poderia compor músicas?</i>

109
00:06:07,534 --> 00:06:10,078
<i>Escrever poemas? Fazer arte?</i>

110
00:06:11,329 --> 00:06:12,664
Aqui em Amsterdã,

111
00:06:12,747 --> 00:06:16,626
uma inteligência artificial criou
seu próprio quadro original

112
00:06:17,043 --> 00:06:20,839
baseado nos trabalhos do mestre holandês
do século 15, Rembrandt.

113
00:06:31,850 --> 00:06:35,061
<i>O primeiro passo foi analisar o estilo</i>
<i>de Rembrandt.</i>

114
00:06:35,520 --> 00:06:38,440
<i>E eles começaram com um só aspecto.</i>

115
00:06:42,235 --> 00:06:45,155
Começamos pelos olhos direitos
que Rembrandt pintou...

116
00:06:45,238 --> 00:06:46,781
DIRETOR EXECUTIVO CRIATIVO

117
00:06:46,865 --> 00:06:50,493
...e ensinamos ao computador, "Ele pinta 
olho direito assim. Pinte um novo."

118
00:06:50,577 --> 00:06:53,288
-E fizemos isso...
-Parece simples,

119
00:06:53,371 --> 00:06:56,666
mas você pediu ao computador
para criar algo original.

120
00:06:56,750 --> 00:06:59,252
É, mas ele só olha o que há em comum.

121
00:07:00,295 --> 00:07:03,006
Ele aprende a prever
como o próximo olho será

122
00:07:03,590 --> 00:07:05,592
com bases nos dados que já tem.

123
00:07:05,675 --> 00:07:10,180
Fizemos isso para todos os traços faciais
e basicamente montamos tudo.

124
00:07:10,764 --> 00:07:12,766
<i>É por isso que é I.A.</i>

125
00:07:12,849 --> 00:07:15,477
<i>Ao analisar os quadros,</i>
<i>o algoritmo aprende</i>

126
00:07:15,560 --> 00:07:19,147
<i>as características essenciais</i>
<i>dos olhos direitos de Rembrandt.</i>

127
00:07:19,564 --> 00:07:23,443
Mas esse ainda é só um item digital.
São zeros e uns.

128
00:07:23,777 --> 00:07:27,197
Isto é algo totalmente diferente.

129
00:07:27,280 --> 00:07:31,493
Eu estou observando o quadro ganhar vida,
uma camada por vez.

130
00:07:31,576 --> 00:07:35,330
Você acha que isto é
como trazer Rembrandt de volta à vida?

131
00:07:35,413 --> 00:07:37,499
GERENTE DE COMUNICAÇÕES

132
00:07:37,624 --> 00:07:39,042
Gostaria de imaginar que sim.

133
00:07:39,125 --> 00:07:41,711
Dá para comparar ao que Rembrandt faz.

134
00:07:41,795 --> 00:07:45,882
A inteligência artificial é como a mente
do artista,

135
00:07:46,841 --> 00:07:51,471
mas a impressora é como as mãos dele,
então, usa as cores,

136
00:07:51,554 --> 00:07:53,682
até as pinceladas que ele faria.

137
00:07:54,265 --> 00:07:58,311
Você pode ir até o quadro,
pôr as mãos nele e sentir que é real.

138
00:08:02,148 --> 00:08:03,024
Aí está.

139
00:08:03,400 --> 00:08:06,403
Ele parece mesmo ter 500 anos de idade.

140
00:08:07,112 --> 00:08:08,571
Isso é fenomenal.

141
00:08:08,655 --> 00:08:10,407
É uma pessoa que não existe.

142
00:08:10,490 --> 00:08:14,577
É uma pessoa que foi criada
com base em traços faciais reunidos.

143
00:08:16,246 --> 00:08:19,749
Você acha que ele captura a essência
de Rembrandt?

144
00:08:19,833 --> 00:08:20,917
Não sou especialista,

145
00:08:21,001 --> 00:08:25,839
então, acho que para os olhos de um leigo,
isto é para valer.

146
00:08:25,922 --> 00:08:27,090
<i>Com esse projeto,</i>

147
00:08:27,674 --> 00:08:30,760
<i>estamos explorando as fronteiras da I.A.</i>

148
00:08:30,844 --> 00:08:32,053
<i>E ao fazer isso,</i>

149
00:08:32,470 --> 00:08:36,057
<i>também podemos aprender</i>
<i>sobre o que significa ser humano.</i>

150
00:08:45,066 --> 00:08:46,943
Não quero dirigir até o serviço.

151
00:08:47,152 --> 00:08:50,697
Quero tomar sorvete no trajeto.
Por que isso é estranho?

152
00:08:54,159 --> 00:08:57,912
A porta é reforçada, mas nunca se sabe
quem dirige essas coisas.

153
00:09:06,629 --> 00:09:08,923
Deixe-me colocar isto aqui. Pronto.

154
00:09:09,924 --> 00:09:10,884
Derek.

155
00:09:10,967 --> 00:09:13,136
Muito legal. Rembrandt?

156
00:09:13,219 --> 00:09:15,847
Sim, um Rembrandt.
Você não me trouxe sorvete.

157
00:09:15,930 --> 00:09:16,765
CORRESPONDENTE

158
00:09:16,848 --> 00:09:20,477
Tem um pouco ali.
Eu não sabia se você estaria aqui.

159
00:09:20,977 --> 00:09:22,187
Eu estava no meu...

160
00:09:22,812 --> 00:09:24,314
Meu celular não me avisou.

161
00:09:24,397 --> 00:09:27,567
Esse é o problema da I.A.
Nunca dá para confiar.

162
00:09:27,650 --> 00:09:30,070
Eis a questão. Eu vi aquilo. É incrível.

163
00:09:30,361 --> 00:09:33,782
Muito legal eles serem capazes
de analisar aqueles aspectos

164
00:09:34,282 --> 00:09:36,743
criados por um mestre do passado

165
00:09:37,452 --> 00:09:39,287
e poder reproduzi-lo. É legal.

166
00:09:39,871 --> 00:09:43,750
-Mas ele está aprendendo?
-Acho que certamente está aprendendo.

167
00:09:43,833 --> 00:09:47,337
É interessante ouvir você falar
de termostatos e geladeiras.

168
00:09:47,420 --> 00:09:50,048
Para mim,
esses são os níveis básicos de I.A.

169
00:09:50,131 --> 00:09:52,383
Talvez eles nem sejam dignos do termo.

170
00:09:52,467 --> 00:09:55,428
-Acho que há muito debate...
-Funcionaria para você

171
00:09:55,512 --> 00:09:58,890
se essa máquina de pintura
com inteligência artificial

172
00:09:59,724 --> 00:10:02,185
-decidisse fazer um quadro?
-Ah, sim.

173
00:10:02,560 --> 00:10:04,646
E tivesse emoções sobre o quadro?

174
00:10:04,729 --> 00:10:08,983
Sim. Agora você está descrevendo algo
que certamente não existe.

175
00:10:09,234 --> 00:10:11,653
Mas eu adoraria se existisse e...

176
00:10:11,736 --> 00:10:14,781
Para mim,
essa é a verdade inteligência artificial.

177
00:10:14,864 --> 00:10:17,992
E se nos depararmos com isso?
E se fizermos uma máquina

178
00:10:18,326 --> 00:10:21,913
fantasticamente complicada
e ela começasse a tomar decisões?

179
00:10:21,996 --> 00:10:23,373
Quer dizer, essa é...

180
00:10:23,456 --> 00:10:26,376
E se a Internet tiver consciência
e nós não sabemos?

181
00:10:26,459 --> 00:10:27,627
Cara!

182
00:10:28,461 --> 00:10:30,171
Isso é uma loucura.

183
00:10:31,214 --> 00:10:34,300
Mas a Internet vem tomando decisões?

184
00:10:34,384 --> 00:10:38,805
E quantos de vocês já xingaram 
cortadores de grama?

185
00:10:40,640 --> 00:10:43,810
Já xingaram seu carro
quando ele não pega, pessoal.

186
00:10:43,893 --> 00:10:46,062
Vocês ficam bravo com um pneu murcho?

187
00:10:46,146 --> 00:10:49,274
Qual a distância entre ficar bravo
com um carro

188
00:10:49,357 --> 00:10:51,734
para ficar bravo com a Internet?

189
00:10:51,818 --> 00:10:54,863
É o que estou dizendo.
Essa é a pergunta legítima.

190
00:10:54,946 --> 00:10:57,115
Se nos depararmos com isso, vamos saber?

191
00:10:58,449 --> 00:10:59,617
Cara.

192
00:10:59,701 --> 00:11:02,287
Vamos tratar dessa questão. Bom trabalho.

193
00:11:02,370 --> 00:11:04,914
-Obrigado por vir. Foi demais!
-Obrigado.

194
00:11:05,790 --> 00:11:07,208
Obrigado, Derek.

195
00:11:10,295 --> 00:11:12,380
Então, para analisar essa situação,

196
00:11:12,463 --> 00:11:15,049
para descobrir
o que deveríamos estar fazendo,

197
00:11:15,133 --> 00:11:18,636
onde estamos e aonde vamos
com a inteligência artificial,

198
00:11:18,720 --> 00:11:20,471
eu tenho um painel fantástico.

199
00:11:21,055 --> 00:11:22,056
Por favor, recebam...

200
00:11:25,810 --> 00:11:29,439
a jornalista de tecnologia
para a <i>BoingBoing, </i>Xeni Jardin.

201
00:11:31,566 --> 00:11:34,611
o professor de Ciência da Computação
na Universidade do Arizona,

202
00:11:34,694 --> 00:11:36,362
Rao Kambhampati.

203
00:11:36,446 --> 00:11:37,655
Kambhampati.

204
00:11:38,615 --> 00:11:40,992
e, da minha 
amada Universidade de Washington,

205
00:11:41,075 --> 00:11:44,370
o professor de direito, Ryan Calo.
Bem-vindos.

206
00:11:47,040 --> 00:11:48,583
Muito obrigado por virem.

207
00:11:50,251 --> 00:11:54,672
O mundo vai acabar neste fim de semana
por causa dessa coisa artificial?

208
00:11:54,756 --> 00:11:57,091
Eu sinto que muito do que as pessoas...

209
00:11:57,175 --> 00:11:58,343
JORNALISTA DE TECNOLOGIA

210
00:11:58,426 --> 00:12:01,304
...falam sobre I.A. é sobre seus medos.

211
00:12:01,596 --> 00:12:04,641
E assim como com a Internet,

212
00:12:04,724 --> 00:12:07,810
nós imaginamos cenários loucos,
de pesadelo.

213
00:12:07,894 --> 00:12:09,646
Talvez metade tenha se realizado.

214
00:12:09,729 --> 00:12:11,522
-Muitas coisas...
-Só metade.

215
00:12:12,106 --> 00:12:14,484
Muita coisa incrível
e inesperada aconteceu.

216
00:12:14,567 --> 00:12:19,739
E sinto que há muito espanto
e preocupação sem fundamento,

217
00:12:19,822 --> 00:12:20,990
sem suficiente...

218
00:12:22,116 --> 00:12:24,535
apreciação das maravilhas a serem criadas

219
00:12:24,619 --> 00:12:27,538
e o quão distante
o que dá medo pode estar.

220
00:12:27,622 --> 00:12:32,001
Essa questão dos pontos negativos
serem uma preocupação sobre I.A.,

221
00:12:32,085 --> 00:12:35,588
eu acho que é mais uma pequena porção
da elite intelectual.

222
00:12:35,672 --> 00:12:38,049
PROF. CIÊNCIAS DA COMPUTAÇÃO
UNIVERSIDADE DO ARIZONA

223
00:12:38,132 --> 00:12:41,678
Tem um novo estudo que eu li
no <i>Harvard Business Review</i>

224
00:12:41,761 --> 00:12:44,847
em que alguém fez uma pesquisa de campo

225
00:12:44,931 --> 00:12:47,892
com cerca de 2.000 pessoas normais.

226
00:12:47,976 --> 00:12:52,105
E 47 por cento acharam
que I.A. será positiva para eles.

227
00:12:52,188 --> 00:12:54,524
Só sete por cento acharam 
que será negativo.

228
00:12:54,607 --> 00:12:59,028
Então, eu acho que essa preocupação
com a I.A. é mais um...

229
00:12:59,112 --> 00:13:02,073
Nós tivemos os luditas,
pessoas com medo de máquinas,

230
00:13:02,156 --> 00:13:04,909
por mais de um século,
há quase dois séculos.

231
00:13:04,993 --> 00:13:07,662
Então, é só um medo do desconhecido?

232
00:13:08,204 --> 00:13:10,290
Acho que devíamos 
estar preocupados com I.A.

233
00:13:10,373 --> 00:13:12,000
PROF. DE DIREITO
UNIVERSIDADE DE WASHINGTON

234
00:13:14,752 --> 00:13:20,466
Mas não pelos motivos que muitos estão.
Não acho que vai acordar e nos matar.

235
00:13:20,550 --> 00:13:24,804
Mas está tomando decisões que nos afetam,
manipulando nossos dados

236
00:13:24,887 --> 00:13:27,890
e como você insinuou,
nos direcionando.

237
00:13:27,974 --> 00:13:29,517
Acho que isso é preocupante.

238
00:13:29,600 --> 00:13:32,729
Não é algo como o Exterminador do Futuro,
mas é uma preocupação.

239
00:13:32,812 --> 00:13:36,315
-O Exterminador precisava viajar no tempo.
-Mas muito da I.A.

240
00:13:36,399 --> 00:13:40,695
é sobre tarefas complicadas
que nós humanos não queremos fazer,

241
00:13:40,778 --> 00:13:43,614
ou que destroçariam
nossos corpos vulneráveis.

242
00:13:43,698 --> 00:13:47,118
Como as guerras.
Mas, tudo bem... Eu sobrevivi a um câncer.

243
00:13:47,201 --> 00:13:50,580
E eu penso na I.A... Está bem, obrigada.

244
00:13:52,999 --> 00:13:57,879
É a indústria farmacêutica, a ciência
e os meus médicos que merecem aplausos.

245
00:13:57,962 --> 00:14:03,885
Mas eu imagino um futuro
em que a I.A. leria minha ressonância,

246
00:14:03,968 --> 00:14:07,513
minha mamografia, os exames de sangue.
Talvez haja um sensor

247
00:14:07,597 --> 00:14:11,434
que sempre manda informações
para uma inteligência artificial...

248
00:14:11,517 --> 00:14:13,394
Inclusive o seu CPF.

249
00:14:13,478 --> 00:14:17,231
Bem, sabe, se isso me impede de morrer,
eu topo.

250
00:14:17,315 --> 00:14:21,402
-Mas há preocupações, não é?
-E consequências não planejadas, certo?

251
00:14:21,486 --> 00:14:25,281
Ah, não. Não. Humanos?
Consequências não planejadas?

252
00:14:25,365 --> 00:14:28,493
Porque vivemos em um mundo
em que você está sempre cercado

253
00:14:28,618 --> 00:14:31,162
por algo que te parece uma pessoa.

254
00:14:31,245 --> 00:14:33,289
E as oportunidades para solidão?

255
00:14:33,373 --> 00:14:36,876
Quando nos sentiremos a sós
se nosso carro, telefone e casa

256
00:14:36,959 --> 00:14:39,170
fazem parecer que há uma pessoa lá?

257
00:14:39,253 --> 00:14:42,173
Eu tenho uma função no celular.
Eu posso desligá-lo.

258
00:14:44,592 --> 00:14:47,261
Mas pense na privacidade
como um bom exemplo.

259
00:14:47,345 --> 00:14:50,348
Não fazemos essas coisas
para invadir a privacidade.

260
00:14:50,431 --> 00:14:53,309
Mas a inteligência artificial
é cada vez mais capaz

261
00:14:53,393 --> 00:14:56,187
de deduzir o íntimo do disponível.

262
00:14:56,437 --> 00:14:58,439
O que você faz no dia a dia,

263
00:14:58,523 --> 00:15:00,441
de repente ensinamos às máquinas

264
00:15:00,525 --> 00:15:03,111
e podemos adivinhar quem você é
e o que você faz.

265
00:15:03,194 --> 00:15:06,864
Bem, já estamos vendo isso
com a chamada "Internet das Coisas".

266
00:15:06,948 --> 00:15:09,200
Já houve interrupções massivas de Internet

267
00:15:09,283 --> 00:15:14,330
atribuídas a câmeras do computador
sendo tomadas por vírus.

268
00:15:15,081 --> 00:15:19,627
As preocupações com segurança
conforme desenvolvemos I.A...

269
00:15:19,710 --> 00:15:22,338
Conforme a I.A. fica mais inteligente,

270
00:15:22,880 --> 00:15:26,175
eu imagino que haverá um novo campo
para segurança,

271
00:15:26,426 --> 00:15:28,386
muito mais complexo.

272
00:15:28,469 --> 00:15:32,056
Quase como criar vigias
para vigiar quem vigia.

273
00:15:32,140 --> 00:15:34,142
Deixe-me perguntar uma coisa.

274
00:15:34,642 --> 00:15:38,187
É orgânico.
Quero dizer, no caso da Internet,

275
00:15:38,563 --> 00:15:39,981
ela se organiza sozinha.

276
00:15:40,064 --> 00:15:43,985
Nós criamos essa coisa,
mas ela faz coisas por conta própria.

277
00:15:44,318 --> 00:15:45,945
Ela está fora de controle?

278
00:15:47,238 --> 00:15:49,365
-Ainda não.
-Está longe de estar? Rao?

279
00:15:49,449 --> 00:15:52,034
Então, eu acho... Eu também sou presidente

280
00:15:52,118 --> 00:15:55,079
da Associação para Avanços
da Inteligência Artificial,

281
00:15:55,163 --> 00:15:56,914
que realiza pesquisas.

282
00:15:56,998 --> 00:16:00,918
Então, perguntamos aos nossos colegas
de eletricidade da associação

283
00:16:01,002 --> 00:16:05,631
quando eles acham que a inteligência 
artificial atingirá um nível humano,

284
00:16:05,715 --> 00:16:07,758
porque há muitas preocupações,

285
00:16:08,134 --> 00:16:12,472
e, na verdade é... O mais perto
que alguém chegou foi cerca de 50 anos

286
00:16:12,555 --> 00:16:15,016
e muitos acham que é até mais que isso.

287
00:16:15,099 --> 00:16:18,478
Quero voltar a um ponto
que acho bem importante,

288
00:16:18,561 --> 00:16:20,271
a ideia de que esses sistemas,

289
00:16:20,354 --> 00:16:23,191
ainda que eles não sejam como pessoas,

290
00:16:23,774 --> 00:16:25,693
manifestarem comportamentos.

291
00:16:25,985 --> 00:16:27,945
Comportamentos que quem projetou

292
00:16:28,029 --> 00:16:30,698
não saberia necessariamente...
Não teria previsto.

293
00:16:30,781 --> 00:16:34,660
Você mostrou Amsterdã.
Outra coisa interessante que aconteceu lá

294
00:16:34,744 --> 00:16:38,080
foi que um bot no Twitter 
ameaçou um desfile de moda.

295
00:16:38,164 --> 00:16:39,624
O que é um bot?

296
00:16:39,707 --> 00:16:43,127
Para começar... Isso não é...
Falando em algo que não é I.A.

297
00:16:43,211 --> 00:16:46,047
É um <i>script</i> relativamente simples que...

298
00:16:46,130 --> 00:16:47,673
<i>Scripts</i> são linhas de código.

299
00:16:47,757 --> 00:16:50,259
-Linhas de código.
-No teclado, aperte <i>enter</i>.

300
00:16:50,343 --> 00:16:52,386
Isso mesmo. E o que ele faz é...

301
00:16:52,470 --> 00:16:55,306
Em alguns casos é aleatório,
em outros é direto,

302
00:16:55,389 --> 00:16:58,267
ele gera discurso na rede social Twitter.

303
00:16:58,768 --> 00:17:03,523
E esse bot tinha sido criado
para parecer uma pessoa real tuitando

304
00:17:03,606 --> 00:17:05,358
e ele acabou tuitando

305
00:17:05,983 --> 00:17:09,779
uma ameaça de morte
a um desfile de moda em Amsterdã.

306
00:17:09,862 --> 00:17:12,740
-Por que uma ameaça?
-Não se sabe. Foi aleatório.

307
00:17:12,823 --> 00:17:15,159
Mas foi bem específico, ele disse,

308
00:17:15,243 --> 00:17:18,246
"Sério, eu quero matar pessoas."
O bot disse isso.

309
00:17:18,329 --> 00:17:20,498
É a polícia apareceu e disse:

310
00:17:21,040 --> 00:17:24,085
"Você quer matar gente?"
para quem cuidava do bot.

311
00:17:24,168 --> 00:17:26,420
E eles disseram:
"Não achei que ele faria isso."

312
00:17:26,504 --> 00:17:28,756
E o bot acabou sendo confiscado.

313
00:17:28,839 --> 00:17:31,384
Mas a questão é como lidar
com casos assim?

314
00:17:31,467 --> 00:17:34,220
Como regular isso? Como regular I.A.?

315
00:17:34,303 --> 00:17:38,182
Para começar,
eu quero diferenciar autonomia,

316
00:17:38,266 --> 00:17:42,645
que é, basicamente,
conseguir fazer coisas sozinho,

317
00:17:42,728 --> 00:17:44,355
-de inteligência.
-Carro sem motorista.

318
00:17:44,438 --> 00:17:47,066
Elas são coisas totalmente ortogonais.

319
00:17:47,149 --> 00:17:49,986
Já temos a autonomia idiota
em todos os lugares.

320
00:17:50,069 --> 00:17:53,030
Esse bot no Twitter 
é uma autonomia idiota.

321
00:17:53,114 --> 00:17:54,907
Com grandes consequências.

322
00:17:54,991 --> 00:17:58,202
Sim, mas minha única observação,
sob a perspectiva de I.A.,

323
00:17:58,286 --> 00:18:01,455
é que não dá para culpar a I.A.
por tudo no mundo.

324
00:18:01,539 --> 00:18:04,333
-De maneira geral...
-Nós vamos culpar você.

325
00:18:05,751 --> 00:18:07,628
Não sei se deveríamos explicar.

326
00:18:07,712 --> 00:18:11,090
O problema é que I.A. ainda
não está tão desenvolvida

327
00:18:11,507 --> 00:18:16,012
e mesmo assim aceitamos usá-la
nas instituições sociais mais delicadas.

328
00:18:16,637 --> 00:18:19,181
Por exemplo, usam, ao menos algoritmos...

329
00:18:19,265 --> 00:18:21,350
Podemos discutir se é I.A.

330
00:18:21,434 --> 00:18:24,937
...para descobrir
se quem está preso será reincidente.

331
00:18:25,229 --> 00:18:27,982
E assim ditar
se eles deverão sair da prisão.

332
00:18:28,065 --> 00:18:31,444
Teve um belo estudo do pessoal
da ProPublica

333
00:18:31,527 --> 00:18:33,654
mostrando que juízes usam

334
00:18:34,780 --> 00:18:38,743
algoritmos para descobrir
qual deveria ser a pena de alguém

335
00:18:38,826 --> 00:18:40,328
usando fatores de risco.

336
00:18:40,411 --> 00:18:43,039
E que surpresa, quando analisaram melhor,

337
00:18:43,122 --> 00:18:46,667
era racista.
Ou seja, a chance era duas vezes maior...

338
00:18:47,418 --> 00:18:52,423
Era muito mais provável
que eles recomendassem que não brancos...

339
00:18:52,506 --> 00:18:55,676
Bem, como costumava ser?
Nós estamos perdendo...

340
00:18:56,302 --> 00:18:59,680
empregos? Tem pessoas que julgavam

341
00:19:00,389 --> 00:19:05,186
e que não tem mais chance de usar
esse julgamento e estamos perdendo...

342
00:19:05,519 --> 00:19:08,356
Então, para começar, esse tipo de decisão,

343
00:19:08,439 --> 00:19:11,192
da perspectiva da computação,
não são algoritmos.

344
00:19:11,275 --> 00:19:13,694
Eles são... Há informações disponíveis

345
00:19:13,778 --> 00:19:17,156
e os programas têm alguns padrões.

346
00:19:17,406 --> 00:19:22,119
A questão é como você toma decisões
com base em padrões vistos no programa.

347
00:19:22,203 --> 00:19:23,954
Ainda cabe aos humanos.

348
00:19:24,038 --> 00:19:26,666
-Eu acho...
-Nós ainda os programamos.

349
00:19:26,749 --> 00:19:29,418
De fato. E até certo ponto, eu acho,

350
00:19:29,502 --> 00:19:34,840
nós queremos separá-lo do...
Deveríamos receber dados bem diversos.

351
00:19:34,924 --> 00:19:38,094
Por exemplo,
eu supostamente trabalho com I.A.,

352
00:19:38,302 --> 00:19:40,513
mas Alexa ainda não entende meu sotaque.

353
00:19:40,596 --> 00:19:42,973
E qual é o problema?

354
00:19:43,057 --> 00:19:45,267
Ela certamente tem um viés contra mim,

355
00:19:45,351 --> 00:19:48,813
ou é porque ela foi treinada por vocês?

356
00:19:48,896 --> 00:19:52,149
E é uma questão de ter 
a diversidade certa de dados

357
00:19:52,233 --> 00:19:55,152
para treinar nossa máquina
a aprender algoritmos.

358
00:19:55,236 --> 00:19:58,030
Não vamos jogar o bebê fora
com a água do banho.

359
00:19:58,114 --> 00:19:59,782
Nós sempre precisamos...

360
00:20:00,449 --> 00:20:02,368
de dados diversos, isso é importante.

361
00:20:02,451 --> 00:20:06,330
Então, para mim é isso.
Inteligência artificial é uma ferramenta.

362
00:20:06,956 --> 00:20:09,792
Temos de ter consciência disso
e usar com cuidado

363
00:20:09,875 --> 00:20:12,962
e usar julgamento humano
para salvar o mundo.

364
00:20:13,337 --> 00:20:14,797
Muito obrigado a todos.

365
00:20:14,880 --> 00:20:17,925
Obrigado Xeni, Ryan e Rao.

366
00:20:19,260 --> 00:20:21,762
Foi fantástico. Eu fico agradecido mesmo.

367
00:20:21,846 --> 00:20:24,598
Obrigado, pessoal. Eu estou chegando aí.

368
00:20:24,682 --> 00:20:26,684
Xeni, estou chegando aí. Obrigado.

369
00:20:27,309 --> 00:20:30,146
Todo esse papo
sobre inteligência artificial

370
00:20:30,229 --> 00:20:32,231
e robôs tomando o poder,

371
00:20:32,857 --> 00:20:36,026
me faz querer fazer meu próprio drone.

372
00:20:37,361 --> 00:20:38,362
Não saiam daí.

373
00:20:40,281 --> 00:20:41,699
Ah, bom.

374
00:20:42,241 --> 00:20:46,954
Sabe, eu venho querendo reprogramar
meu quadricóptero.

375
00:20:47,872 --> 00:20:50,291
Sabe? Não, eu quero sim. Ele...

376
00:20:51,083 --> 00:20:53,169
Ele depende de graus de mudança.

377
00:20:53,252 --> 00:20:55,588
Não só graus de mudança de posição

378
00:20:55,671 --> 00:20:59,467
ou velocidade, ou aceleração,
ou de arrancada.

379
00:20:59,550 --> 00:21:01,969
Tem que recalibrar desde
o controle de partida.

380
00:21:03,012 --> 00:21:04,972
É só cálculo. Quer dizer, o quê?

381
00:21:07,725 --> 00:21:09,393
É disso que estou falando.

382
00:21:09,477 --> 00:21:11,812
É assim que eu o aciono.

383
00:21:14,064 --> 00:21:16,358
Sabe, a luz vermelha é preocupante.

384
00:21:18,152 --> 00:21:24,033
Wilhelmina, você pode ler as instruções
depois de ligar?

385
00:21:25,075 --> 00:21:27,119
<i>Pesquisando direções para chegar ao bar.</i>

386
00:21:30,122 --> 00:21:33,209
Não. Eu quero instruções para o...

387
00:21:33,751 --> 00:21:35,461
-quadricóptero...
<i>-Foi mal.</i>

388
00:21:35,544 --> 00:21:37,713
<i>Vou pesquisar direções para o bar.</i>

389
00:21:40,466 --> 00:21:42,802
O quadricóptero, não o bar.

390
00:21:43,052 --> 00:21:45,679
<i>Sério? Você não quer mesmo ir até o bar</i>

391
00:21:45,763 --> 00:21:48,849
<i>para encontrar seu amigo Keith</i>
<i>e falar, "Oi, Keith.</i>

392
00:21:48,933 --> 00:21:51,185
<i>Você é o melhor amigo que eu já tive.</i>

393
00:21:51,268 --> 00:21:52,520
<i>Eu te amo, Keith."</i>

394
00:21:55,231 --> 00:21:56,941
Wilhelmina, você está bem?

395
00:21:57,316 --> 00:22:00,653
<i>Talvez eu queira ir beber com você</i>
<i>e o Keith algum dia.</i>

396
00:22:02,530 --> 00:22:03,489
Ir beber?

397
00:22:04,281 --> 00:22:06,909
-Você não tem boca.
<i>-Isso foi racista.</i>

398
00:22:08,494 --> 00:22:09,370
Quê?

399
00:22:09,787 --> 00:22:12,665
Eu só quero as instruções
para consertar o quadricóptero.

400
00:22:12,748 --> 00:22:15,793
<i>Você quer instruções?</i>
<i>Dê uma guinada na sua vida.</i>

401
00:22:18,796 --> 00:22:19,880
Já chega disso.

402
00:22:23,092 --> 00:22:26,136
Falamos muito
sobre inteligência artificial hoje

403
00:22:26,428 --> 00:22:30,224
e eu acho que tenho
algo muito legal e especial para mostrar.

404
00:22:30,307 --> 00:22:34,186
Estou aqui com Saqib Shaikh 
e Margaret Mitchell, da Microsoft,

405
00:22:34,270 --> 00:22:37,523
e eles têm uma tecnologia incrível
de inteligência artificial.

406
00:22:37,606 --> 00:22:39,233
Bem-vindos.

407
00:22:45,197 --> 00:22:48,993
Saqib, você não consegue me enxergar.

408
00:22:49,702 --> 00:22:51,328
Quando você perdeu a visão?

409
00:22:51,412 --> 00:22:54,582
Eu perdi minha visão aos sete anos.

410
00:22:54,665 --> 00:22:56,542
E esse é um dos motivos

411
00:22:56,625 --> 00:22:59,628
para eu estar trabalhando nessa pesquisa

412
00:22:59,962 --> 00:23:02,214
que faz a inteligência artificial

413
00:23:02,506 --> 00:23:05,009
ajudar deficientes visuais como eu.

414
00:23:05,092 --> 00:23:07,219
Temos um aplicativo em um celular comum

415
00:23:07,595 --> 00:23:11,390
e quando tiramos uma foto com ele,
ele descreve o que vê.

416
00:23:11,473 --> 00:23:12,850
-Ah, qual é.
-É.

417
00:23:12,933 --> 00:23:15,519
Ele usa aprendizagem profunda, 
uma das coisas...

418
00:23:15,644 --> 00:23:18,814
APRENDIZAGEM PROFUNDA: TREINAR I.A.
COM MUITOS DADOS E NÍVEIS DE CÁLCULO.

419
00:23:18,897 --> 00:23:20,691
...que fez I.A. ser possível,
 abriu a discussão.

420
00:23:20,774 --> 00:23:22,443
<i>-</i>Aprendizagem profunda?
-Isso.

421
00:23:22,526 --> 00:23:26,697
E esse app<i> </i>consegue reconhecer coisas
com a câmera do celular?

422
00:23:26,780 --> 00:23:30,242
Exato. Vou tirar uma foto de algo,
por exemplo você, Bill.

423
00:23:30,326 --> 00:23:34,121
Está bem.
Eu já sei que tenho que ficar na luz.

424
00:23:34,204 --> 00:23:36,874
-É.
-Esse celular está tirando uma foto minha.

425
00:23:36,957 --> 00:23:39,335
-E depois vamos ouvir?
-É, isso mesmo.

426
00:23:40,336 --> 00:23:42,129
<i>Câmera em andamento.</i>

427
00:23:42,421 --> 00:23:46,133
<i>-É o Bill Nye. De sessenta anos...</i>
-Que legal.

428
00:23:47,426 --> 00:23:50,179
Ele me reconheceu, sou uma figura pública.

429
00:23:50,679 --> 00:23:52,097
Aqui... Sério,

430
00:23:52,181 --> 00:23:55,809
ele pode reconhecer esse objeto
na sua frente?

431
00:23:56,060 --> 00:23:58,646
<i>Câmera em andamento.</i>

432
00:23:58,729 --> 00:24:02,066
<i>Provavelmente um vaso com flores</i>
<i>em cima de uma bancada.</i>

433
00:24:02,358 --> 00:24:05,110
Nada mal. Um vaso com flores
em uma bancada.

434
00:24:08,113 --> 00:24:08,947
Agora...

435
00:24:10,491 --> 00:24:12,701
você não tem visão,

436
00:24:12,785 --> 00:24:17,414
mas você desenvolveu esse algoritmo
com base nas suas necessidades, não?

437
00:24:17,498 --> 00:24:20,793
Isso. Somos uma grande equipe,
mas eu sou o coordenador.

438
00:24:20,876 --> 00:24:24,046
E eu consigo saber
que tipo de coisa seria útil.

439
00:24:24,463 --> 00:24:25,798
E ainda está aprendendo.

440
00:24:25,881 --> 00:24:29,009
Agora ele seria
como uma criança de três anos

441
00:24:29,093 --> 00:24:32,304
que não conhece muito do mundo. Então...

442
00:24:32,388 --> 00:24:34,973
Ele só sabe aquilo a que foi exposto

443
00:24:35,057 --> 00:24:38,602
e isso é em torno de 100.000 fotos.

444
00:24:38,852 --> 00:24:41,522
Mas, Saqib, o que você quer ver?

445
00:24:41,772 --> 00:24:42,856
Quero ver o mundo.

446
00:24:46,276 --> 00:24:48,904
Então, posso pegar o celular
e experimentar?

447
00:24:48,987 --> 00:24:49,947
Claro.

448
00:24:50,614 --> 00:24:52,241
Então, é só eu tocar...

449
00:24:53,283 --> 00:24:56,453
Eu só aponto para esse...
Não vou te dizer o que é.

450
00:24:57,037 --> 00:24:59,331
E eu aperto aqui. Está processando.

451
00:24:59,415 --> 00:25:01,500
Pode não estar no vocabulário dele.

452
00:25:01,583 --> 00:25:03,919
Provavelmente um liquidificador
sobre a bancada.

453
00:25:04,002 --> 00:25:06,922
-É, então... Certo.
-Mas é uma cafeteira.

454
00:25:08,215 --> 00:25:09,049
Mas...

455
00:25:10,092 --> 00:25:14,972
-É realmente algo extraordinário.
-Sim. Ele reconhece a forma, o reflexo...

456
00:25:15,055 --> 00:25:16,473
PESQUISADORA DE I.A.

457
00:25:16,557 --> 00:25:19,727
...coisas assim
e acha a coisa mais parecida.

458
00:25:19,810 --> 00:25:22,938
Falando em formatos,
este modelo em especial...

459
00:25:23,021 --> 00:25:24,940
-Está bem.
-...me é muito querido,

460
00:25:25,023 --> 00:25:26,900
porque quando eu era jovem,

461
00:25:27,943 --> 00:25:30,696
meu primeiro trabalho de verdade
como engenheiro

462
00:25:31,196 --> 00:25:33,365
-foi trabalhando neste avião.
-É.

463
00:25:33,991 --> 00:25:35,242
Então, vamos tentar.

464
00:25:35,951 --> 00:25:39,329
Mas eu vou deixar claro.
Não era uma réplica de madeira.

465
00:25:39,413 --> 00:25:42,499
Ele era bem maior do que isso.

466
00:25:42,583 --> 00:25:44,960
Ele está em uma superfície
que reflete muito,

467
00:25:45,043 --> 00:25:46,003
pode confundir.

468
00:25:46,086 --> 00:25:48,547
Provavelmente um eletrodoméstico de inox.

469
00:25:48,630 --> 00:25:50,591
Certo, ele vê muito inox.

470
00:25:50,674 --> 00:25:51,842
<i>Câmera em andamento.</i>

471
00:25:51,925 --> 00:25:54,344
Provavelmente um avião em uma mesa.

472
00:25:55,888 --> 00:25:57,222
Isso é tão legal.

473
00:25:59,516 --> 00:26:01,435
-É.
-Para mim isso é incrível.

474
00:26:01,518 --> 00:26:04,438
E poder falar sobre coisas
que fogem do padrão

475
00:26:04,521 --> 00:26:07,357
é algo típico da Microsoft,

476
00:26:07,441 --> 00:26:10,903
onde usamos uma aprendizagem 
superficial para gerar

477
00:26:10,986 --> 00:26:12,946
e acompanhar as palavras ditas

478
00:26:13,030 --> 00:26:15,491
e as que temos de dizer
com base no que vimos.

479
00:26:15,574 --> 00:26:19,453
Saqib, isso melhorou a sua vida,
ou você acha que irá melhorar?

480
00:26:19,536 --> 00:26:22,623
Eu acho que melhorará muito 
a minha vida no futuro.

481
00:26:22,956 --> 00:26:24,917
Ele mostrou as possibilidades.

482
00:26:25,000 --> 00:26:28,378
O que me empolga mesmo, por exemplo,
é tecnologia vestível.

483
00:26:28,462 --> 00:26:31,215
Algum tipo de coisa
que você sempre pode usar

484
00:26:31,298 --> 00:26:32,716
sem ter de segurar o celular.

485
00:26:33,300 --> 00:26:34,968
-Você tem estes óculos.
-Sim.

486
00:26:35,052 --> 00:26:37,137
-Eu olhei direto para eles.
-Isso.

487
00:26:37,721 --> 00:26:40,724
São óculos feitos
por uma empresa chamada Pivothead.

488
00:26:40,808 --> 00:26:43,060
Eles têm uma câmera em cima dos olhos.

489
00:26:43,143 --> 00:26:44,645
-Entendi. É.
-Exato.

490
00:26:44,937 --> 00:26:48,190
E isso ainda é algo para o futuro,

491
00:26:48,273 --> 00:26:51,527
mas é algo que adoraríamos
poder ver no futuro.

492
00:26:51,610 --> 00:26:55,322
Você deverá ver cada vez mais
esse tipo de tecnologia vestível

493
00:26:55,405 --> 00:26:59,159
com a ideia de que podemos usar
 I.A. no dia a dia das pessoas

494
00:26:59,243 --> 00:27:00,702
sem ser algo incômodo,

495
00:27:00,786 --> 00:27:03,956
se tivermos um formato
que as deixa confortáveis.

496
00:27:04,039 --> 00:27:06,333
Você usa a inteligência artificial

497
00:27:06,667 --> 00:27:09,753
para, eu ousaria dizer, salvar o mundo.

498
00:27:10,337 --> 00:27:11,922
Muito obrigado, pessoal.

499
00:27:14,341 --> 00:27:15,509
Nós conseguiremos.

500
00:27:16,343 --> 00:27:19,638
Viu?
Inteligência artificial não é boa ou ruim.

501
00:27:19,721 --> 00:27:22,641
É questão do que fazemos com ela.
Muito obrigado por virem.

502
00:27:22,724 --> 00:27:24,393
Obrigado Margaret e Saqib.

503
00:27:25,310 --> 00:27:27,354
Podemos fazer coisas incríveis.

504
00:27:27,855 --> 00:27:29,690
Eu amo vocês, pessoal.

505
00:27:46,290 --> 00:27:48,292
Legendas: Ricardo Vieira

