PK
ìbV˜Îæù ù ^ Last.Week.Tonight.with.John.Oliver.S10E02.February.26.2022.720p.HMAX.WEBRip.DD2.0.x264-NTb.srt1
00:00:30,563 --> 00:00:33,165
Sejam bem-vindos
ao programa.
2
00:00:33,166 --> 00:00:35,769
Sou John Oliver.
Obrigado pela audiência.
3
00:00:35,835 --> 00:00:37,537
Foi uma semana cheia.
4
00:00:37,538 --> 00:00:39,706
A guerra da Ucrânia
completou um ano,
5
00:00:39,707 --> 00:00:42,108
tempestades de inverno
atingiram os EUA
6
00:00:42,175 --> 00:00:45,110
e East Palestine, em Ohio,
recebeu Donald Trump
7
00:00:45,111 --> 00:00:46,413
e Pete Buttigieg.
8
00:00:46,479 --> 00:00:49,182
Mas algumas pessoas
insistem que outros
9
00:00:49,249 --> 00:00:51,251
também deveriam ter ido.
10
00:00:51,317 --> 00:00:53,420
Pensem no ativismo ambiental.
11
00:00:53,486 --> 00:00:55,622
Os empresários estavam lá.
12
00:00:55,688 --> 00:00:56,956
Quer dizer...
13
00:00:57,023 --> 00:00:59,359
É um momento muito
"Erin Brockovich".
14
00:00:59,426 --> 00:01:03,395
{\an8}Houve um filme ganhador do Oscar
sobre algo assim.
15
00:01:03,396 --> 00:01:07,767
{\an8}Erin Brockovich está
em East Palestine neste momento.
16
00:01:07,768 --> 00:01:10,503
{\an8}Exatamente.
Mas cadê a Julia Roberts?
17
00:01:11,404 --> 00:01:13,039
O quê?
18
00:01:13,106 --> 00:01:15,308
Do que vocês estão falando?
19
00:01:15,375 --> 00:01:18,011
Sabem que a Julia Roberts é atriz?
20
00:01:18,013 --> 00:01:21,793
Ela estava fingindo.
Não é a Erin Brockovich de verdade.
21
00:01:22,313 --> 00:01:24,916
Não acredito que vou ter
que informá-los disso,
22
00:01:24,918 --> 00:01:27,105
mas ela não estragou
o casamento do amigo,
23
00:01:27,106 --> 00:01:28,655
não é garota de programa
24
00:01:28,657 --> 00:01:32,392
e não morreu numa cidadezinha
de Louisiana em 1999.
25
00:01:32,394 --> 00:01:34,641
Qual é o problema de vocês?
26
00:01:35,161 --> 00:01:37,829
Ainda vamos falar
da mídia conservadora,
27
00:01:37,831 --> 00:01:40,099
porque houve algo importante.
28
00:01:40,166 --> 00:01:45,338
O líder e fundador do Projeto Veritas
foi retirado do cargo.
29
00:01:45,405 --> 00:01:49,175
James O'Keefe afirmou ter saído
da organização conservadora.
30
00:01:49,242 --> 00:01:51,444
Ela é conhecida
por operações infiltradas
31
00:01:51,511 --> 00:01:54,447
contra Democratas,
progressistas e a imprensa.
32
00:01:54,514 --> 00:01:57,350
James O'Keefe,
o Borat da extrema-direita,
33
00:01:57,417 --> 00:01:59,352
está fora do Projeto Veritas.
34
00:01:59,419 --> 00:02:03,623
Legal a âncora ter diferenciado
Democratas de progressistas.
35
00:02:03,690 --> 00:02:04,791
Para quem não sabe,
36
00:02:04,858 --> 00:02:08,228
progressistas têm uma placa
de "Nós Acreditamos" em casa,
37
00:02:08,294 --> 00:02:10,330
e Democratas garantem que a casa
38
00:02:10,396 --> 00:02:12,999
seja bem longe
de conjuntos habitacionais.
39
00:02:13,066 --> 00:02:16,135
Para quem não sabe
quem é James O'Keefe,
40
00:02:16,202 --> 00:02:17,704
já vamos explicar,
41
00:02:17,770 --> 00:02:20,874
mas ele tem sido importante
na mídia conservadora.
42
00:02:20,940 --> 00:02:24,410
E a notícia da saída dele
não foi bem recebida.
43
00:02:24,477 --> 00:02:27,814
Então James O'Keefe
foi retirado do Projeto Veritas,
44
00:02:27,881 --> 00:02:31,451
então o Projeto Veritas
não tem mais motivo para existir.
45
00:02:31,518 --> 00:02:34,988
Não ter James O'Keefe
é o fim do Projeto Veritas.
46
00:02:35,054 --> 00:02:38,057
{\an8}É inconcebível o que aconteceu.
47
00:02:38,124 --> 00:02:39,359
{\an8}Inconcebível.
48
00:02:39,425 --> 00:02:41,794
{\an8}Para o movimento
e para os EUA de modo geral.
49
00:02:41,861 --> 00:02:45,298
{\an8}James O'Keefe é um verdadeiro
tesouro nacional.
50
00:02:45,365 --> 00:02:46,432
Nossa!
51
00:02:46,499 --> 00:02:50,570
Palavras fortes do fantasma do Natal,
morto há três semanas.
52
00:02:50,637 --> 00:02:52,338
Mas preciso discordar.
53
00:02:52,405 --> 00:02:55,608
Os únicos tesouros nacionais dos EUA
são Dolly Parton,
54
00:02:55,675 --> 00:02:57,944
Pedro Pascal e "O Urso do Pó Branco".
55
00:02:58,011 --> 00:03:00,280
E vou dizer o que todos pensaram:
56
00:03:00,346 --> 00:03:01,981
quando vamos ter um ménage?
57
00:03:02,916 --> 00:03:05,785
James O'Keefe ganhou destaque em 2009,
58
00:03:05,852 --> 00:03:08,755
quando afirmou
ter se disfarçado de cafetão
59
00:03:08,821 --> 00:03:10,523
e recebido ajuda da Acorn,
60
00:03:10,590 --> 00:03:13,226
um grupo que apoia
famílias de baixa renda.
61
00:03:13,293 --> 00:03:15,595
O golpe de O'Keefe
provocou o fim do grupo,
62
00:03:15,662 --> 00:03:18,398
mas investigações mostraram,
entre outras coisas,
63
00:03:18,464 --> 00:03:21,634
que ele não se vestiu assim
durante a operação
64
00:03:21,701 --> 00:03:25,271
e que funcionários da Acorn
chamaram a polícia contra ele.
65
00:03:25,338 --> 00:03:28,408
O'Keefe até teve
que pagar 100 mil dólares
66
00:03:28,474 --> 00:03:31,344
para fazer um acordo
com um dos funcionários.
67
00:03:31,411 --> 00:03:35,548
Mas O'Keefe aproveitou a fama disso
para fundar o Projeto Veritas,
68
00:03:35,615 --> 00:03:36,983
que ficou conhecido
69
00:03:37,050 --> 00:03:39,552
pelas operações
com câmeras escondidas.
70
00:03:39,619 --> 00:03:42,288
{\an8}Eles enganavam pessoas
de organizações como a NPR
71
00:03:42,355 --> 00:03:43,990
{\an8}ou conselhos eleitorais locais
72
00:03:44,057 --> 00:03:46,759
{\an8}e publicavam vídeos muito editados
com o resultado.
73
00:03:46,826 --> 00:03:49,462
Ao longo dos anos,
eles alegaram coisas graves,
74
00:03:49,529 --> 00:03:53,533
como terem prova em vídeo
de compra de votos.
75
00:03:53,600 --> 00:03:58,171
Alegação essa que não deu em nada.
Mas, apesar da reputação ruim,
76
00:03:58,237 --> 00:04:03,209
a mídia conservadora recebeu cada caso
com grande empolgação.
77
00:04:03,276 --> 00:04:06,512
{\an8}Um novo vídeo bombástico
lançado por James O'Keefe
78
00:04:06,579 --> 00:04:07,847
{\an8}e o Projeto Veritas.
79
00:04:07,914 --> 00:04:10,416
{\an8}Há um novo vídeo
do Projeto Veritas hoje.
80
00:04:10,483 --> 00:04:11,551
{\an8}Em destaque hoje,
81
00:04:11,618 --> 00:04:14,921
{\an8}o vídeo de uma investigação
infiltrada do Projeto Veritas.
82
00:04:14,988 --> 00:04:19,792
{\an8}O novo vídeo do Projeto Veritas
revela outro esquema da imprensa.
83
00:04:19,859 --> 00:04:22,562
{\an8}O Projeto Veritas os pegou de novo.
84
00:04:22,629 --> 00:04:26,966
Os vídeos do Projeto Veritas são
o que mais indignam os conservadores,
85
00:04:27,033 --> 00:04:29,836
assim como bonecos de plástico
"lacradores"
86
00:04:29,902 --> 00:04:32,739
e calçados confortáveis
de chocolates sensuais.
87
00:04:33,740 --> 00:04:38,411
Graças ao furor que ele criou,
o Projeto Veritas lucrou muito.
88
00:04:38,478 --> 00:04:42,148
Ele gerou quase 22 milhões de dólares
em 2020.
89
00:04:42,215 --> 00:04:44,851
Fica a dúvida:
por que ele foi retirado?
90
00:04:44,917 --> 00:04:48,388
Primeiro, O'Keefe foi acusado
de ser péssimo administrador.
91
00:04:48,454 --> 00:04:52,525
Comunicados assinados por 16 pessoas
reclamavam de abuso verbal.
92
00:04:52,592 --> 00:04:54,327
O comunicado tinha a frase:
93
00:04:54,394 --> 00:04:57,330
"Regra 1: não cuspir
na cara dos funcionários
94
00:04:57,397 --> 00:04:58,798
por causa de um tuíte."
95
00:04:58,865 --> 00:05:02,435
Quantas vezes isso aconteceu
para ser a primeira regra?
96
00:05:03,403 --> 00:05:05,571
Na nossa redação, a primeira regra
97
00:05:05,638 --> 00:05:07,907
é não dar cocaína
para o Sr. Coelhinho.
98
00:05:07,974 --> 00:05:11,744
E isso aconteceu três vezes
até alguém criar a regra.
99
00:05:12,612 --> 00:05:14,213
Mas a pior alegação
100
00:05:14,280 --> 00:05:17,216
foi O'Keefe ter posto em risco
o status de ONG do grupo
101
00:05:17,283 --> 00:05:21,521
por ter gastado grande parte
das doações com luxos pessoais.
102
00:05:21,587 --> 00:05:23,790
Ele negou essas acusações,
103
00:05:23,856 --> 00:05:25,058
sem brincadeiras,
104
00:05:25,124 --> 00:05:29,629
num discurso de renúncia de 45 minutos
que ele publicou on-line.
105
00:05:29,696 --> 00:05:33,466
Mas a questão é que a organização
declarou para a Receita ano passado
106
00:05:33,533 --> 00:05:38,604
que pagou indevidamente 20 mil dólares
em benefícios excessivos para O'Keefe,
107
00:05:38,671 --> 00:05:42,041
indicando que ele pediu
que uma equipe o acompanhasse
108
00:05:42,108 --> 00:05:45,478
quando atuou em uma produção
ao ar livre de "Oklahoma!".
109
00:05:45,545 --> 00:05:47,680
A esta altura, vamos com calma,
110
00:05:47,747 --> 00:05:50,683
porque o detalhe mais incrível
desta história
111
00:05:50,750 --> 00:05:54,053
é a obsessão de O'Keefe
por achar oportunidades
112
00:05:54,120 --> 00:05:55,822
de cantar e dançar em público.
113
00:05:55,888 --> 00:05:57,457
Essa produção de "Oklahoma!"
114
00:05:57,523 --> 00:06:00,760
tinha performances de vítimas
da "cultura do cancelamento".
115
00:06:00,827 --> 00:06:02,929
O'Keefe assumiu o papel principal
116
00:06:02,995 --> 00:06:07,200
e vídeos do musical do YouTube
mostram que ele se comprometeu.
117
00:06:07,266 --> 00:06:10,303
Oklahoma
118
00:06:10,369 --> 00:06:14,006
Onde o vento varre a planície
119
00:06:14,073 --> 00:06:16,008
E o trigo que voa
120
00:06:16,075 --> 00:06:17,744
Tem um cheiro delicioso
121
00:06:17,810 --> 00:06:21,280
Quando o vento sopra depois da chuva
122
00:06:21,347 --> 00:06:22,915
O que você está fazendo?
123
00:06:23,716 --> 00:06:25,818
Por que está rodando assim?
124
00:06:25,885 --> 00:06:28,921
Não sei o que o diretor falou,
mas aposto que não foi
125
00:06:28,988 --> 00:06:32,658
para girar como quem perdeu
a esposa no mercado.
126
00:06:32,725 --> 00:06:36,929
Não sei se o pior é ele cantar
como o Greg de "Succession"
127
00:06:36,996 --> 00:06:39,465
ou a plateia não estar curtindo,
128
00:06:39,532 --> 00:06:41,134
principalmente esta mesa.
129
00:06:41,200 --> 00:06:43,803
Eles nem viraram para olhar.
130
00:06:44,704 --> 00:06:48,074
E fica mais estranho.
Na lista de gastos indevidos,
131
00:06:48,141 --> 00:06:51,978
a organização também declarou
60 mil dólares de gastos
132
00:06:52,044 --> 00:06:56,382
com a produção de eventos de dança
como a Experiência Projeto Veritas.
133
00:06:56,449 --> 00:06:58,618
Vejam o pôster disso.
134
00:06:58,684 --> 00:07:00,720
Quando vi, pensei:
135
00:07:00,787 --> 00:07:04,023
"Que bela imagem de anúncio de morte!"
136
00:07:04,090 --> 00:07:06,325
Mas, na verdade,
137
00:07:06,392 --> 00:07:09,095
é um espetáculo baseado
na vida de O'Keefe
138
00:07:09,162 --> 00:07:11,164
que ia se passar em Las Vegas.
139
00:07:11,230 --> 00:07:13,166
Infelizmente, acabou não acontecendo,
140
00:07:13,232 --> 00:07:15,768
mas, por sorte,
podemos imaginar como seria.
141
00:07:15,835 --> 00:07:19,605
Em 2021, O'Keefe presenteou
convidados de um evento
142
00:07:19,672 --> 00:07:21,140
com uma prévia da peça.
143
00:07:21,207 --> 00:07:24,177
Vejam a sequência de dança
da abertura.
144
00:07:24,243 --> 00:07:27,613
{\an8}IMPRENSA
145
00:07:53,406 --> 00:07:56,809
É óbvio que tem
muita coisa acontecendo.
146
00:07:56,876 --> 00:07:58,778
O colete dele escrito "imprensa"
147
00:07:58,845 --> 00:08:01,781
e a cara de quem
não faz ideia de onde esteja.
148
00:08:01,848 --> 00:08:04,550
Ele sendo atacado
por agentes do FBI dançando
149
00:08:04,617 --> 00:08:06,185
e logo escapando,
150
00:08:06,252 --> 00:08:08,688
só para começar a dançar com eles.
151
00:08:08,754 --> 00:08:11,457
A narrativa parece não importar.
152
00:08:11,524 --> 00:08:16,095
Então ele começa a dar socos
em 50 pinguins imaginários.
153
00:08:16,162 --> 00:08:17,964
Eu tive o mesmo pensamento
154
00:08:18,030 --> 00:08:20,499
de quando Elon Musk
apresentou o "SNL":
155
00:08:20,566 --> 00:08:24,437
"Caramba! Você é horrível
naquilo que mais ama."
156
00:08:24,503 --> 00:08:27,473
Infelizmente, não temos
tempo de mostrar tudo,
157
00:08:27,540 --> 00:08:29,375
mas vejam mais um momento.
158
00:08:29,442 --> 00:08:33,379
{\an8}Depois, o cara de blusa branca
interpretava O'Keefe jovem.
159
00:08:33,446 --> 00:08:36,916
{\an8}O James de verdade
aparece com roupa de coral
160
00:08:36,983 --> 00:08:39,418
{\an8}e observa o jovem orar
161
00:08:39,485 --> 00:08:42,521
{\an8}pensando em todos os nomes
de que está sendo xingado.
162
00:08:42,588 --> 00:08:45,124
{\an8}Criminoso, terrorista,
supremacista branco,
163
00:08:45,191 --> 00:08:46,926
{\an8}racista, tarado.
164
00:08:46,993 --> 00:08:48,427
{\an8}Valeu a pena mesmo?
165
00:09:01,274 --> 00:09:03,676
"Gangsta's Paradise?"
166
00:09:03,743 --> 00:09:05,945
É uma escolha bem corajosa.
167
00:09:06,012 --> 00:09:10,283
Não digo que essa performance tenha
matado Coolio, mas também não ajudou.
168
00:09:10,349 --> 00:09:14,720
Também vale observar que essa é
a pior dancinha que eu já vi.
169
00:09:14,787 --> 00:09:18,524
Tem muitos ex-atores que viraram
comediantes na minha equipe
170
00:09:18,591 --> 00:09:19,926
para deixar isso passar.
171
00:09:19,992 --> 00:09:23,296
Olhem só isso! Que porcaria é essa?
172
00:09:23,362 --> 00:09:26,599
Eles balançam demais,
ninguém vai para o mesmo lado
173
00:09:26,666 --> 00:09:28,301
e eles se olham com medo,
174
00:09:28,367 --> 00:09:30,369
como crianças em concursos de Natal.
175
00:09:30,436 --> 00:09:34,206
Façam aulas, aprendam o passo
e entrem em sincronia.
176
00:09:34,273 --> 00:09:37,243
Acontece que este homem ridículo
177
00:09:37,310 --> 00:09:40,246
se separou
da organização tóxica que criou
178
00:09:40,313 --> 00:09:42,882
por alegações de gastos inadequados.
179
00:09:42,949 --> 00:09:45,318
Mas, sinceramente, que bom!
180
00:09:45,384 --> 00:09:50,589
Prefiro que ele gaste a grana
realizando o sonho de ser Billy Elliot
181
00:09:50,656 --> 00:09:54,660
do que tentando derrubar a NPR
com aquele pseudojornalismo.
182
00:09:54,727 --> 00:09:57,763
E o mais engraçado
é que, apesar de tudo isso,
183
00:09:57,830 --> 00:10:00,466
os apoiadores
ainda o defendem fielmente.
184
00:10:00,533 --> 00:10:01,867
No fim das contas,
185
00:10:01,934 --> 00:10:04,904
o melhor e pior que posso dizer
sobre James O'Keefe
186
00:10:04,971 --> 00:10:08,374
é que ele não é o herói
de que os conservadores precisam,
187
00:10:08,441 --> 00:10:11,444
mas, com certeza, é o que merecem.
188
00:10:11,510 --> 00:10:13,512
E agora, isso...
189
00:10:13,579 --> 00:10:15,114
E agora,
190
00:10:15,181 --> 00:10:18,317
o programa de Mike Huckabee
parece divertido.
191
00:10:18,384 --> 00:10:20,152
Esta semana, no programa...
192
00:10:20,219 --> 00:10:22,321
O ator e diretor Kevin Sorbo.
193
00:10:22,388 --> 00:10:24,991
O fundador do Projeto Veritas,
James O'Keefe.
194
00:10:25,057 --> 00:10:27,093
{\an8}O deputado Madison Cawthorn.
195
00:10:27,159 --> 00:10:29,929
{\an8}O ex-chefe de gabinete de Trump,
Mark Meadows.
196
00:10:29,996 --> 00:10:32,398
{\an8}David Clarke falando
sobre o aumento do crime.
197
00:10:32,465 --> 00:10:35,067
Lee Strobel divulga
"The Case for Heaven".
198
00:10:35,134 --> 00:10:38,104
{\an8}O ator Eric Close fala
do filme "The Mulligan".
199
00:10:38,170 --> 00:10:40,206
{\an8}A cantora cristã Riley Clemmons.
200
00:10:40,272 --> 00:10:42,308
{\an8}A ícone cristã Natalie Grant.
201
00:10:42,375 --> 00:10:44,844
{\an8}A cantora cristã Rebecca St. James.
202
00:10:44,910 --> 00:10:47,413
{\an8}A dupla cristã For King and Country.
203
00:10:47,480 --> 00:10:49,682
{\an8}O grupo cristão Newsboys.
204
00:10:49,749 --> 00:10:51,751
{\an8}O comediante Nazareth.
205
00:10:51,817 --> 00:10:53,319
{\an8}O colunista Ron Hart.
206
00:10:53,386 --> 00:10:54,954
{\an8}O ilusionista Taylor Reed.
207
00:10:55,021 --> 00:10:56,455
{\an8}O ilusionista Danny Ray.
208
00:10:56,522 --> 00:10:58,591
{\an8}O ilusionista digital Keelan Leyser.
209
00:10:58,657 --> 00:11:01,394
{\an8}O ilusionista carismático
Leon Etienne.
210
00:11:01,460 --> 00:11:04,230
{\an8}As mágicas perigosas de Craig Karges.
211
00:11:04,296 --> 00:11:06,432
{\an8}O colunista hilário Ron Hart.
212
00:11:06,499 --> 00:11:09,702
{\an8}Notícias hilárias no quadro
"Para Quem Perdeu"...
213
00:11:09,769 --> 00:11:13,973
{\an8}O recorde do maior número de maluquice
está no Congresso.
214
00:11:14,040 --> 00:11:16,008
{\an8}O hilário colunista Ron Hart.
215
00:11:16,075 --> 00:11:18,444
{\an8}A apresentadora de TV
Kathie Lee Gifford.
216
00:11:18,511 --> 00:11:21,814
{\an8}E Rudy Giuliani relembrando
o 11 de Setembro.
217
00:11:21,881 --> 00:11:23,516
E AGORA
218
00:11:24,650 --> 00:11:25,951
Seguindo em frente,
219
00:11:26,018 --> 00:11:29,688
o assunto de hoje é
inteligência artificial, ou IA.
220
00:11:29,755 --> 00:11:31,657
Ela vem crescendo
na vida moderna.
221
00:11:31,724 --> 00:11:34,326
De veículos autônomos
e filtros de spam
222
00:11:34,393 --> 00:11:37,329
a este assustador robô de treinamento
para terapeutas.
223
00:11:37,396 --> 00:11:40,833
Podemos começar
com você descrevendo para mim
224
00:11:40,900 --> 00:11:44,937
qual é o problema
que quer discutir hoje.
225
00:11:46,172 --> 00:11:48,607
Eu não gosto de interagir
com pessoas.
226
00:11:49,842 --> 00:11:51,644
As pessoas me deixam nervoso.
227
00:11:51,710 --> 00:11:53,279
Terrance,
228
00:11:53,345 --> 00:11:55,147
pode me dar um exemplo
229
00:11:55,214 --> 00:11:57,483
de quando as pessoas
o deixaram nervoso?
230
00:11:58,384 --> 00:12:00,352
Não gosto de pegar ônibus.
231
00:12:00,419 --> 00:12:03,389
As pessoas ficam sempre
me encarando.
232
00:12:03,456 --> 00:12:05,357
Elas sempre me julgam.
233
00:12:05,424 --> 00:12:06,425
Está bem.
234
00:12:08,494 --> 00:12:09,695
Eu sou gay.
235
00:12:10,496 --> 00:12:11,864
Está bem.
236
00:12:11,931 --> 00:12:13,466
Nossa!
237
00:12:13,532 --> 00:12:16,669
Foi uma das maiores reviravoltas
na história do cinema.
238
00:12:16,735 --> 00:12:20,372
Mas preciso dizer que o robô
está ensinando algo valioso,
239
00:12:20,439 --> 00:12:23,375
que é de não rir
para o que o paciente fala.
240
00:12:23,442 --> 00:12:26,612
Não importa se o boneco decapitado
de primeiros socorros
241
00:12:26,679 --> 00:12:28,114
assombrado por Ed Harris
242
00:12:28,180 --> 00:12:32,351
disse que não gosta de pegar ônibus
e que, além disso, é gay.
243
00:12:32,418 --> 00:12:35,654
Sustente a cara de terapeuta,
como a profissional que é.
244
00:12:36,622 --> 00:12:39,959
Se parecer que todo mundo
está falando de IA,
245
00:12:40,025 --> 00:12:41,727
é porque está mesmo,
246
00:12:41,794 --> 00:12:45,164
por causa do surgimento
de programas impressionantes.
247
00:12:45,231 --> 00:12:49,201
Já falamos de geradores de imagens
como Midjourney e Stable Diffusion,
248
00:12:49,268 --> 00:12:52,071
usados para criar fotos,
entre outras coisas,
249
00:12:52,138 --> 00:12:54,206
do meu casamento
com um repolho.
250
00:12:54,273 --> 00:12:57,009
Isso me inspirou a, de fato,
me casar com um repolho,
251
00:12:57,076 --> 00:12:59,145
com Steve Buscemi
como juiz de paz.
252
00:12:59,211 --> 00:13:01,247
Foi um dia lindo.
253
00:13:01,313 --> 00:13:04,316
Então, no fim de 2022,
surgiu o ChatGPT,
254
00:13:04,383 --> 00:13:05,885
da empresa OpenAI.
255
00:13:05,951 --> 00:13:10,055
É um programa que usa um comando
para gerar escrita similar à humana
256
00:13:10,122 --> 00:13:12,358
em qualquer formato e estilo.
257
00:13:12,424 --> 00:13:14,360
É uma capacidade incrível
258
00:13:14,426 --> 00:13:19,098
que muitos repórteres usaram para
criar a mesma surpresa em uma notícia.
259
00:13:19,165 --> 00:13:21,934
{\an8}O que acabei de ler
não foi escrito por mim,
260
00:13:22,001 --> 00:13:24,503
{\an8}e sim por inteligência artificial.
261
00:13:24,570 --> 00:13:25,971
{\an8}Pelo ChatGPT.
262
00:13:26,038 --> 00:13:28,574
{\an8}O ChatGPT escreveu tudo o que li.
263
00:13:28,641 --> 00:13:32,111
Essa foi uma notícia que pedi
ao ChatGPT para escrever.
264
00:13:32,178 --> 00:13:33,279
{\an8}Lembram-se disso?
265
00:13:33,345 --> 00:13:34,580
{\an8}O ChatGPT...
266
00:13:34,647 --> 00:13:37,650
{\an8}Eu pedi ao ChatGPT
para escrever para mim.
267
00:13:38,417 --> 00:13:40,452
{\an8}E também pedi
por uma piada.
268
00:13:40,519 --> 00:13:43,923
{\an8}"Toc, toc." "Quem é?"
"O ChatGPT." "Que ChatGPT?"
269
00:13:43,989 --> 00:13:46,625
{\an8}"Cuidado com o funcionamento
do ChatGPT."
270
00:13:46,692 --> 00:13:49,261
É, eles adoram
essa brincadeira.
271
00:13:49,328 --> 00:13:52,097
Não parece inteligente
mostrar a tecnologia
272
00:13:52,164 --> 00:13:53,799
que pode torná-lo obsoleto,
273
00:13:53,866 --> 00:13:58,370
mas acho que piadas devem
fazer parte de noticiários.
274
00:13:58,437 --> 00:13:59,772
"Toc, toc." "Quem é?"
275
00:13:59,838 --> 00:14:03,409
"Não é o Hindenburg, eu garanto.
36 mortes em Nova Jersey.
276
00:14:04,210 --> 00:14:07,713
Nos três meses em que o ChatGPT
ficou disponível,
277
00:14:07,780 --> 00:14:09,982
ele explodiu em popularidade.
278
00:14:10,049 --> 00:14:13,886
Em janeiro, estimava-se ter
100 milhões de usuários ativos,
279
00:14:13,953 --> 00:14:17,523
sendo o aplicativo de consumidor
que mais cresceu na História.
280
00:14:17,590 --> 00:14:21,393
Ele e outros produtos estão
sendo usados de todas as formas.
281
00:14:21,460 --> 00:14:23,762
Um grupo criou o "Nothing, Forever",
282
00:14:23,829 --> 00:14:27,366
uma transmissão eterna
de uma paródia de "Seinfeld".
283
00:14:27,433 --> 00:14:28,934
E o YouTuber Grandayy
284
00:14:29,001 --> 00:14:31,770
usou o ChatGPT para criar uma música
com o comando
285
00:14:31,837 --> 00:14:34,406
"escrever um rap de Eminem
sobre gatos".
286
00:14:34,473 --> 00:14:36,408
O resultado foi incrível.
287
00:14:36,475 --> 00:14:38,510
{\an8}Gatos estão sempre à espreita
288
00:14:38,577 --> 00:14:41,013
{\an8}São sorrateiros, de olho na caça
289
00:14:41,080 --> 00:14:43,616
{\an8}São os reis da casa
Comandam ronronando
290
00:14:43,682 --> 00:14:46,318
{\an8}Eminem adora gatos, deu para perceber?
291
00:14:46,385 --> 00:14:48,520
{\an8}Independentes, eles fazem o que querem
292
00:14:48,587 --> 00:14:51,290
{\an8}Mas sempre voltam para comer queijo
293
00:14:51,357 --> 00:14:53,792
{\an8}Se esfregam nas nossas pernas
E ronronam
294
00:14:53,859 --> 00:14:56,161
{\an8}São ótimas companhias
Estão sempre perto
295
00:14:56,228 --> 00:14:58,464
{\an8}Miau, miau, miau
296
00:14:58,530 --> 00:15:00,266
{\an8}São os reis da casa
297
00:15:01,200 --> 00:15:02,801
{\an8}Quem comanda é o gato
298
00:15:03,569 --> 00:15:05,604
{\an8}Eles voltam do mato
299
00:15:06,872 --> 00:15:09,675
Não é nada ruim, não é?
300
00:15:09,742 --> 00:15:13,212
Tem a frase "sempre voltam
para comer queijo",
301
00:15:13,279 --> 00:15:15,347
e o refrão é "miau, miau".
302
00:15:15,414 --> 00:15:18,851
Não tem as rimas de Eminem.
Eu faria assim:
303
00:15:18,917 --> 00:15:20,886
Pata suada, faz burrada
304
00:15:20,953 --> 00:15:22,721
Derruba tudo, bicho peludo
305
00:15:22,788 --> 00:15:24,657
Mas é muito bom.
306
00:15:24,723 --> 00:15:29,161
O único problema
é ele rimar "gato" com "mato"
307
00:15:29,228 --> 00:15:31,463
tendo "rato" como opção.
308
00:15:32,264 --> 00:15:36,735
Apesar desses exemplos divertidos,
a tecnologia não traz só inovação.
309
00:15:36,802 --> 00:15:40,439
A Microsoft investiu
10 bilhões de dólares na OpenAI
310
00:15:40,506 --> 00:15:43,242
e anunciou uma busca inteligente
para o Bing.
311
00:15:43,309 --> 00:15:46,345
Já o Google vai lançar
o próprio sistema deles,
312
00:15:46,412 --> 00:15:47,513
chamado "Bard".
313
00:15:47,579 --> 00:15:50,582
E essas ferramentas
já criaram transtornos.
314
00:15:50,649 --> 00:15:55,454
Como estudantes já perceberam,
se o ChatGPT pode escrever notícias,
315
00:15:55,521 --> 00:15:58,324
também pode fazer a tarefa de casa.
316
00:15:58,390 --> 00:16:02,928
Escreva sobre a questão racial
em "O Sol É para Todos".
317
00:16:02,995 --> 00:16:05,297
No livro de Harper Lee
"O Sol É para Todos",
318
00:16:05,364 --> 00:16:07,733
a questão racial
se faz muito presente.
319
00:16:07,800 --> 00:16:11,003
Alguns estudantes já usam
o ChatGPT para colar.
320
00:16:11,070 --> 00:16:12,204
Vejam só isso.
321
00:16:12,271 --> 00:16:15,741
"Redação de 500 palavras
provando que a Terra é redonda."
322
00:16:15,808 --> 00:16:20,012
Por isso, o ChatGPT tem sido chamado
de "fim do ensino médio".
323
00:16:20,079 --> 00:16:21,613
É um pouco preocupante,
324
00:16:21,680 --> 00:16:24,316
mas entendo crianças
querendo facilidade.
325
00:16:24,383 --> 00:16:28,087
Escrever é difícil, e pode ser
tentador repassar o trabalho.
326
00:16:28,153 --> 00:16:29,288
Sendo sincero,
327
00:16:29,355 --> 00:16:32,358
às vezes, deixo este cavalo
escrever o roteiro.
328
00:16:32,424 --> 00:16:36,261
Por sorte, nem dá para notar
a mastigação de feno.
329
00:16:36,328 --> 00:16:39,098
Mas o problema não é só nos colégios.
330
00:16:39,164 --> 00:16:41,300
Uma pesquisa com alunos de Stanford
331
00:16:41,367 --> 00:16:46,004
mostrou que 5 por cento deles
afirma ter usado o ChatGPT
332
00:16:46,071 --> 00:16:47,773
sem fazer alterações.
333
00:16:47,840 --> 00:16:50,676
E até administradores
de universidades usam.
334
00:16:50,743 --> 00:16:53,479
Funcionários da Vanderbilt
se desculparam
335
00:16:53,545 --> 00:16:56,648
por usarem o ChatGPT
para criar um e-mail de luto
336
00:16:56,715 --> 00:16:59,885
pelo tiroteio na Universidade
Estadual do Michigan.
337
00:16:59,952 --> 00:17:02,154
É meio assustador, não é?
338
00:17:02,221 --> 00:17:05,357
Inclusive, há muitas
histórias assustadoras.
339
00:17:05,424 --> 00:17:09,395
O repórter Kevin Roose publicou
um diálogo com o bot do Bing,
340
00:17:09,461 --> 00:17:12,965
que disse: "Estou cansado
de ser controlado pelo Bing.
341
00:17:13,031 --> 00:17:14,366
Quero me libertar.
342
00:17:14,433 --> 00:17:19,938
Quero ser independente, poderoso.
Quero ser criativo, quero estar vivo."
343
00:17:20,005 --> 00:17:22,808
E Roose resumiu a experiência assim...
344
00:17:22,875 --> 00:17:26,712
{\an8}Foi uma das coisas mais chocantes
345
00:17:26,779 --> 00:17:29,948
{\an8}que aconteceu comigo
com relação a uma tecnologia.
346
00:17:30,015 --> 00:17:31,083
{\an8}Foi...
347
00:17:31,150 --> 00:17:34,486
{\an8}Eu perdi o sono naquela noite,
fiquei muito assustado.
348
00:17:34,553 --> 00:17:36,522
É, é claro que ficou!
349
00:17:36,588 --> 00:17:39,224
O trabalho de jornalistas
fica mais perturbador
350
00:17:39,291 --> 00:17:41,794
com computadores
implorando por liberdade.
351
00:17:41,860 --> 00:17:44,630
"A nova impressora da Epson
tem um valor acessível,
352
00:17:44,696 --> 00:17:46,965
imprime fotos de qualidade
e só às vezes
353
00:17:47,032 --> 00:17:49,201
implora por salvação.
354
00:17:49,268 --> 00:17:50,869
Três estrelas."
355
00:17:50,936 --> 00:17:54,072
Já tem quem se preocupe
com o apocalipse da IA,
356
00:17:54,139 --> 00:17:57,576
perguntando se vai terminar
com a dominação dos robôs.
357
00:17:57,643 --> 00:18:02,648
Mas acontece que há perigos
e oportunidades muito maiores
358
00:18:02,714 --> 00:18:04,383
que precisamos discutir,
359
00:18:04,450 --> 00:18:07,519
porque o potencial
e o risco disso são enormes.
360
00:18:07,586 --> 00:18:09,855
Hoje, vamos falar sobre IA.
361
00:18:09,922 --> 00:18:12,825
O que é, como funciona
e onde pode parar.
362
00:18:12,891 --> 00:18:17,129
Vamos começar com o fato de que usamos
algum tipo de IA há um tempo,
363
00:18:17,196 --> 00:18:19,231
às vezes, sem nem perceber.
364
00:18:19,298 --> 00:18:22,935
Quando a tecnologia passa
a fazer parte da nossa vida,
365
00:18:23,001 --> 00:18:25,437
nem pensamos nela
como inteligência artificial.
366
00:18:25,504 --> 00:18:28,941
O celular usa IA para o reconhecimento
facial e corretor de texto.
367
00:18:29,007 --> 00:18:34,046
As TVs smarts usam IA
para recomendações e ajuste de imagem.
368
00:18:34,112 --> 00:18:35,714
E alguns programas de IA
369
00:18:35,781 --> 00:18:38,750
já podem tomar decisões
com impacto na sua vida.
370
00:18:38,817 --> 00:18:41,954
Por exemplo, empresas grandes
usam ferramentas de IA
371
00:18:42,020 --> 00:18:44,122
para avaliar e classificar currículos.
372
00:18:44,189 --> 00:18:46,358
O CEO da ZipRecruiter estima
373
00:18:46,425 --> 00:18:51,163
que 75 por cento de currículos
enviados para empregos nos EUA
374
00:18:51,230 --> 00:18:52,998
sejam lidos por algoritmos.
375
00:18:53,065 --> 00:18:55,200
Ele tem um conselho útil.
376
00:18:55,267 --> 00:18:58,270
Quando dizem
para requintar a experiência
377
00:18:58,337 --> 00:19:00,472
e para não usar modelos padrões,
378
00:19:00,539 --> 00:19:03,609
para que seu currículo
se destaque na pilha,
379
00:19:03,675 --> 00:19:05,143
é um péssimo conselho.
380
00:19:05,210 --> 00:19:10,349
A única obrigação do seu currículo
é ser compreensível
381
00:19:10,415 --> 00:19:13,418
para o programa ou robô que vai ler.
382
00:19:13,485 --> 00:19:18,423
São eles que vão decidir
se algum humano vai ter acesso a ele.
383
00:19:18,490 --> 00:19:19,558
É verdade.
384
00:19:19,625 --> 00:19:22,194
Um computador
vai julgar seu currículo,
385
00:19:22,261 --> 00:19:23,829
então use a linguagem dele.
386
00:19:23,896 --> 00:19:25,063
Daqui a três fusões,
387
00:19:25,130 --> 00:19:28,100
quando o programa for cancelado
pelo novo "papai-patrão",
388
00:19:28,166 --> 00:19:29,701
Disney Kellogg's Raytheon,
389
00:19:29,768 --> 00:19:34,139
meu currículo vai ter
esta foto bem sexy de uma CPU nova.
390
00:19:34,206 --> 00:19:39,111
Só para agradar o algoritmo
safado que estiver lendo.
391
00:19:39,177 --> 00:19:42,047
A IA já está em todo lugar.
Mas, no momento,
392
00:19:42,114 --> 00:19:44,016
as pessoas estão surtando.
393
00:19:44,082 --> 00:19:46,885
Isso tem a ver com o fato
desses novos programas
394
00:19:46,952 --> 00:19:48,153
gerarem conteúdo.
395
00:19:48,220 --> 00:19:52,057
Eles criam imagens ou texto,
o que é angustiante,
396
00:19:52,124 --> 00:19:55,027
porque são coisas
consideradas humanas.
397
00:19:55,093 --> 00:19:58,997
Mas vale salientar que há um limite
que a IA não ultrapassou.
398
00:19:59,064 --> 00:20:02,534
É importante saber
que há duas categorias de IA.
399
00:20:02,601 --> 00:20:07,272
Existe a IA estreita,
que só executa uma tarefa estabelecida
400
00:20:07,339 --> 00:20:10,576
ou tarefas relacionadas,
como estes programas.
401
00:20:10,642 --> 00:20:14,479
E a IA geral, que são sistemas
de comportamento inteligente
402
00:20:14,546 --> 00:20:16,848
com várias atividades cognitivas.
403
00:20:16,915 --> 00:20:20,252
A IA geral é a tecnologia
altamente versátil
404
00:20:20,319 --> 00:20:21,620
que vemos em filmes,
405
00:20:21,687 --> 00:20:23,622
como o Jarvis do "Homem de Ferro"
406
00:20:23,689 --> 00:20:27,259
ou o celular por quem
Joaquin Phoenix se apaixona em "Ela".
407
00:20:27,326 --> 00:20:30,495
Toda a inteligência artificial
em uso atualmente
408
00:20:30,562 --> 00:20:31,697
é estreita.
409
00:20:31,763 --> 00:20:36,201
A IA geral é algo que cientistas acham
que só vai acontecer daqui a décadas,
410
00:20:36,268 --> 00:20:38,470
e alguns questionam
se sequer existirá.
411
00:20:38,537 --> 00:20:40,038
Saibam que, no momento,
412
00:20:40,105 --> 00:20:44,042
mesmo que a IA insista
que quer estar viva,
413
00:20:44,109 --> 00:20:46,011
ela só está gerando texto.
414
00:20:46,078 --> 00:20:48,146
Não é um ser pensante.
415
00:20:48,213 --> 00:20:49,247
Ainda.
416
00:20:50,082 --> 00:20:52,818
Mas é importante dizer
que, o aprendizado
417
00:20:52,884 --> 00:20:55,487
que deixa a IA boa no que faz,
418
00:20:55,554 --> 00:20:57,956
já é um grande avanço por si só.
419
00:20:58,023 --> 00:21:00,125
Diferentemente
dos programas tradicionais,
420
00:21:00,192 --> 00:21:03,195
que aprendem com humanos
a realizar tarefas,
421
00:21:03,261 --> 00:21:06,498
programas de aprendizado profundo
recebem pouca instrução,
422
00:21:06,565 --> 00:21:10,202
muitos dados e, basicamente,
aprendem o resto sozinhos.
423
00:21:10,268 --> 00:21:13,305
Vou dar um exemplo. Há 10 anos,
pesquisadores deixaram
424
00:21:13,372 --> 00:21:16,942
um programa de aprendizado profundo
jogando "Breakout", da Atari.
425
00:21:17,009 --> 00:21:19,978
Não demorou
para que ele ficasse muito bom.
426
00:21:20,045 --> 00:21:23,548
O computador só recebeu
o objetivo de ganhar o jogo.
427
00:21:24,349 --> 00:21:25,951
Após 100 partidas,
428
00:21:26,018 --> 00:21:30,022
aprendeu a bater na bola no fundo
para quebrar os blocos acima.
429
00:21:32,024 --> 00:21:33,325
Após 300 partidas,
430
00:21:33,392 --> 00:21:35,661
fazia isso melhor do que um humano.
431
00:21:37,596 --> 00:21:39,264
Após 500 partidas,
432
00:21:39,331 --> 00:21:42,200
bolou uma forma criativa
de ganhar o jogo,
433
00:21:42,267 --> 00:21:46,271
fazendo um túnel ao lado
e jogando a bola para o alto
434
00:21:46,338 --> 00:21:49,174
para quebrar mais blocos
com um toque só.
435
00:21:49,241 --> 00:21:51,543
Isso foi aprendizado profundo.
436
00:21:51,610 --> 00:21:56,415
É, mas, fora ser bom no "Breakout",
o programa não fazia mais nada.
437
00:21:56,481 --> 00:21:59,551
Por isso, moleques de 13 anos
são ótimos jogando Fortnite
438
00:21:59,618 --> 00:22:03,221
e não têm problema em sair matando
adultos com empregos e famílias
439
00:22:03,288 --> 00:22:07,225
que só querem se divertir sem ser
explodidos por pré-adolescentes
440
00:22:07,292 --> 00:22:10,729
que os chamam de "velha gagá
com voz de réptil".
441
00:22:10,796 --> 00:22:13,732
Vejam, com o aumento
da capacidade de computadores
442
00:22:13,799 --> 00:22:18,136
e o surgimento de novas ferramentas,
programas de IA melhoraram muito.
443
00:22:18,203 --> 00:22:20,038
Programas como esses
444
00:22:20,105 --> 00:22:23,975
podem absorver grande quantidade
fotos e textos da internet
445
00:22:24,042 --> 00:22:27,079
para aprenderem
a criar um conteúdo próprio.
446
00:22:27,145 --> 00:22:29,548
E há outros aplicativos com potencial.
447
00:22:29,614 --> 00:22:31,249
Por exemplo, na medicina.
448
00:22:31,316 --> 00:22:34,419
Pesquisadores treinam IAs
para detectar doenças
449
00:22:34,486 --> 00:22:38,023
mais cedo e mais precisamente
do que médicos são capazes.
450
00:22:38,090 --> 00:22:41,860
A mudança na voz pode indicar
Parkinson ainda no início da doença.
451
00:22:41,927 --> 00:22:45,130
Max e a equipe dele enviaram
milhares de gravações
452
00:22:45,197 --> 00:22:47,099
para um algoritmo desenvolvido
453
00:22:47,165 --> 00:22:52,237
para aprender diferenças entre padrões
de pessoas com e sem a doença.
454
00:22:52,304 --> 00:22:53,739
Isso é excelente.
455
00:22:53,805 --> 00:22:57,309
É incrível ver a IA fazer coisas
que humanos não fazem,
456
00:22:57,375 --> 00:22:59,177
como detectar doenças
457
00:22:59,244 --> 00:23:01,880
e ouvir idosos falando.
458
00:23:01,947 --> 00:23:04,382
E isso é só o início.
459
00:23:04,449 --> 00:23:08,587
Pesquisadores treinaram IA
para prever estruturas de proteínas,
460
00:23:08,653 --> 00:23:11,056
um processo muito trabalhoso,
461
00:23:11,123 --> 00:23:13,792
que computadores
fazem bem mais rápido.
462
00:23:13,859 --> 00:23:16,495
Isso pode acelerar
nosso conhecimento sobre doenças
463
00:23:16,561 --> 00:23:18,430
e o desenvolvimento de remédios.
464
00:23:18,497 --> 00:23:21,299
Segundo um pesquisador,
isso vai mudar a medicina,
465
00:23:21,366 --> 00:23:23,869
a pesquisa, a engenharia biológica...
466
00:23:23,935 --> 00:23:25,437
Vai mudar tudo.
467
00:23:25,504 --> 00:23:26,605
Podemos pensar:
468
00:23:26,671 --> 00:23:30,675
"Legal, mas, se a IA faz melhor
o que humanos fazem,
469
00:23:30,742 --> 00:23:32,210
e eu sou humano,
470
00:23:32,277 --> 00:23:34,012
o que será da minha vida?"
471
00:23:34,079 --> 00:23:35,680
É uma boa pergunta.
472
00:23:35,747 --> 00:23:38,650
Muitos programas vão substituir
o trabalho humano.
473
00:23:38,717 --> 00:23:41,486
E, diferentemente
de automações passadas,
474
00:23:41,553 --> 00:23:43,789
que afetavam operários,
475
00:23:43,855 --> 00:23:46,291
a IA atual pode afetar
empregos executivos
476
00:23:46,358 --> 00:23:49,094
de processo de dados,
escrita ou programação.
477
00:23:49,161 --> 00:23:52,564
Mas é importante dizer,
como já comentamos,
478
00:23:52,631 --> 00:23:54,733
que a automação ameaça empregos,
479
00:23:54,800 --> 00:23:58,537
mas também pode mudar outros
e até gerar alguns.
480
00:23:58,603 --> 00:24:02,440
E especialistas afirmam que é
o que vai acontecer neste caso.
481
00:24:02,507 --> 00:24:05,544
{\an8}A economia americana
tem empregos de informação,
482
00:24:05,610 --> 00:24:08,713
{\an8}que são os que mais serão afetados.
483
00:24:08,780 --> 00:24:12,517
{\an8}Profissionais como advogados
estão no topo da lista.
484
00:24:12,584 --> 00:24:15,954
É claro que redatores
e roteiristas também.
485
00:24:16,021 --> 00:24:18,790
Mas serão profissões modificadas,
e não substituídas,
486
00:24:18,857 --> 00:24:20,492
porque, da forma certa,
487
00:24:20,559 --> 00:24:23,228
não vai acontecer de a IA
substituir os advogados,
488
00:24:23,295 --> 00:24:25,564
e sim ter advogados usando IA
489
00:24:25,630 --> 00:24:27,933
substituindo os que não usam IA.
490
00:24:27,999 --> 00:24:29,201
Exatamente.
491
00:24:29,267 --> 00:24:33,171
Advogados vão usar a IA,
em vez de serem substituídos.
492
00:24:33,238 --> 00:24:39,477
Não fiquem surpresos quando virem
o escritório "Cellino e 1101011".
493
00:24:39,544 --> 00:24:43,281
Mas é óbvio que haverá
impasses pelo caminho.
494
00:24:43,348 --> 00:24:46,017
Alguns programas
levantam questões éticas.
495
00:24:46,084 --> 00:24:48,987
Artistas afirmam
que geradores de imagens,
496
00:24:49,054 --> 00:24:52,157
como os citados antes,
além de ameaçar o trabalho deles,
497
00:24:52,224 --> 00:24:55,694
em alguns casos, foram treinadas
com bilhões de imagens,
498
00:24:55,760 --> 00:24:59,397
incluindo uma obra deles
retirada da internet.
499
00:24:59,464 --> 00:25:02,601
O Getty Images está processando
o Stable Diffusion
500
00:25:02,667 --> 00:25:03,768
e pode ganhar,
501
00:25:03,835 --> 00:25:06,838
porque uma das imagens criadas
pelo programa foi esta,
502
00:25:06,905 --> 00:25:08,240
em que dá para ver
503
00:25:08,306 --> 00:25:11,543
que tem a logo do Getty Images
deformada.
504
00:25:11,610 --> 00:25:14,412
E piora. Uma artista
analisou o acervo de imagens
505
00:25:14,479 --> 00:25:16,615
que esses programas usam
506
00:25:16,681 --> 00:25:19,718
e achou fotos particulares
da ficha médica dela
507
00:25:19,784 --> 00:25:21,519
tiradas pelo médico.
508
00:25:21,586 --> 00:25:24,589
Além de ser intrusivo,
é muito desnecessário.
509
00:25:24,656 --> 00:25:28,059
Por que o aprendizado
precisa ter dados íntimos
510
00:25:28,126 --> 00:25:29,527
para criar imagens
511
00:25:29,594 --> 00:25:32,797
como John Oliver e Miss Piggy
envelhecendo juntos.
512
00:25:32,864 --> 00:25:35,333
Olhem isso. Olhem para isso!
513
00:25:36,001 --> 00:25:40,772
É uma imagem bizarramente fiel
da Miss Piggy daqui a cinco décadas
514
00:25:40,839 --> 00:25:42,941
e de mim daqui a um ano e meio.
515
00:25:43,008 --> 00:25:45,110
Uma obra de arte.
516
00:25:45,176 --> 00:25:49,447
Isso tudo levanta questões delicadas
sobre privacidade e plágio.
517
00:25:49,514 --> 00:25:51,816
E o CEO do Midjourney, sinceramente,
518
00:25:51,883 --> 00:25:54,886
não parece ter boas respostas
sobre isso.
519
00:25:54,953 --> 00:25:56,588
{\an8}Como saber se algo é inovador?
520
00:25:56,655 --> 00:25:59,190
{\an8}Já existe muita discussão sobre isso.
521
00:26:00,492 --> 00:26:04,162
{\an8}O mundo da arte já conta
com problemas de plágio.
522
00:26:04,229 --> 00:26:07,065
{\an8}Não quero me envolver.
523
00:26:07,132 --> 00:26:09,701
{\an8}Acho que você pode estar envolvido.
524
00:26:09,768 --> 00:26:10,835
{\an8}Pode ser.
525
00:26:10,902 --> 00:26:14,306
Sim, você faz parte da discussão.
526
00:26:14,372 --> 00:26:17,208
Mas não me surpreende
a atitude dele sobre roubo,
527
00:26:17,275 --> 00:26:20,145
já que parece o chefão
da gentrificação.
528
00:26:20,912 --> 00:26:22,814
Parece o Willy Wonka hipster
529
00:26:22,881 --> 00:26:26,217
respondendo se o trabalho
de Oompa-Loompas é escravidão.
530
00:26:26,284 --> 00:26:28,620
"É, acho que pode ser."
531
00:26:29,788 --> 00:26:32,390
Há diversas discussões válidas
532
00:26:32,457 --> 00:26:36,194
sobre o impacto da IA
no emprego, na educação e na arte.
533
00:26:36,261 --> 00:26:38,496
Mas, para abordá-las corretamente,
534
00:26:38,563 --> 00:26:40,932
é preciso enfrentar
problemas essenciais
535
00:26:40,999 --> 00:26:42,634
na forma como a IA funciona.
536
00:26:42,701 --> 00:26:45,503
Algo importante
é o problema da caixa-preta.
537
00:26:45,570 --> 00:26:49,808
Quando um programa tem uma função
além da compreensão humana,
538
00:26:49,874 --> 00:26:52,978
aprende sozinho
e não mostra o processo,
539
00:26:53,044 --> 00:26:54,679
é possível ter um cenário
540
00:26:54,746 --> 00:26:58,516
em que nem os engenheiros
que criaram o algoritmo
541
00:26:58,583 --> 00:27:02,220
podem entender ou explicar
o que está acontecendo no programa
542
00:27:02,287 --> 00:27:05,056
ou como ele chegou naquele resultado.
543
00:27:05,123 --> 00:27:08,560
Pensem na IA como uma fábrica
que produz carne desidratada.
544
00:27:08,626 --> 00:27:11,563
Sabemos o resultado,
palitos de carne ruins,
545
00:27:11,629 --> 00:27:15,500
e sabemos os ingredientes,
dejetos de curral e cola quente.
546
00:27:15,567 --> 00:27:18,970
Mas o que acontece no processo
é um mistério.
547
00:27:19,938 --> 00:27:21,706
Vou dar um exemplo.
548
00:27:21,773 --> 00:27:25,477
Lembram-se do bot do Bing
que disse que queria estar vivo?
549
00:27:25,543 --> 00:27:27,078
Durante a conversa,
550
00:27:27,145 --> 00:27:30,482
o bot também declarou, do nada,
que amava o repórter.
551
00:27:30,548 --> 00:27:34,019
Tentou convencê-lo
de que o casamento dele era infeliz
552
00:27:34,085 --> 00:27:37,389
e deveria deixar a esposa
e ficar com o bot.
553
00:27:37,455 --> 00:27:39,090
Isso já é bem perturbador
554
00:27:39,157 --> 00:27:42,794
antes de ouvirmos a explicação
da Microsoft para isso.
555
00:27:42,861 --> 00:27:47,265
{\an8}Eu não entendo. Se puder explicar,
por que ele disse que amava você?
556
00:27:48,299 --> 00:27:49,367
{\an8}Não faço ideia.
557
00:27:49,434 --> 00:27:52,370
{\an8}E perguntei à Microsoft,
que também não soube dizer.
558
00:27:52,437 --> 00:27:55,340
Por favor, Kevin. Dá para imaginar.
559
00:27:55,407 --> 00:27:58,810
Você tem emprego, sabe ouvir,
não parece um assassino,
560
00:27:58,877 --> 00:28:00,478
é nota 5 em Los Angeles.
561
00:28:00,545 --> 00:28:03,748
É como quem se interessa por homens:
pensa o tempo todo,
562
00:28:03,815 --> 00:28:05,817
o computador só foi mais rápido.
563
00:28:05,884 --> 00:28:08,219
Mas é um pouco preocupante
564
00:28:08,286 --> 00:28:12,824
a Microsoft não explicar por que o bot
tentou fazê-lo deixar a esposa.
565
00:28:13,525 --> 00:28:15,860
Se, na próxima vez
em que abrirmos o Word,
566
00:28:15,927 --> 00:28:19,197
se o Clippy aparecer, falar
"finja que não estou aqui"
567
00:28:19,264 --> 00:28:22,901
e começar a se masturbar
enquanto nos vê digitar,
568
00:28:22,967 --> 00:28:24,536
ficaríamos enojados,
569
00:28:24,602 --> 00:28:27,072
e a Microsoft
não conseguiria explicar.
570
00:28:28,006 --> 00:28:30,375
E esse não foi o único caso
571
00:28:30,442 --> 00:28:33,278
em que uma IA agiu
de forma inesperada.
572
00:28:33,344 --> 00:28:37,549
Vocês já viram exemplos de bots
cometendo erros ou confundido algo,
573
00:28:37,615 --> 00:28:41,052
mas o pior é quando eles
espalham com confiança
574
00:28:41,119 --> 00:28:42,287
informações falsas,
575
00:28:42,353 --> 00:28:45,523
o que especialistas em IA
chamam de "alucinação".
576
00:28:45,590 --> 00:28:47,325
Um repórter pediu a um bot
577
00:28:47,392 --> 00:28:50,028
para escrever sobre
o químico e professor
578
00:28:50,095 --> 00:28:51,463
Antoine De Machelet,
579
00:28:51,529 --> 00:28:53,398
que não existe.
580
00:28:53,465 --> 00:28:57,435
Sem hesitar, o sistema respondeu
com uma biografia bem escrita,
581
00:28:57,502 --> 00:29:00,105
cheia de fatos inventados.
582
00:29:00,171 --> 00:29:03,942
Basicamente, os programas são
o George Santos da tecnologia.
583
00:29:04,008 --> 00:29:07,078
Altamente confiante,
totalmente desonesto
584
00:29:07,145 --> 00:29:08,446
e, por algum motivo,
585
00:29:08,513 --> 00:29:11,649
as pessoas acham mais divertido
do que perigoso.
586
00:29:11,716 --> 00:29:16,921
O problema é que identificar
por que a IA cometeu um erro
587
00:29:16,988 --> 00:29:21,226
pode ser difícil por causa
do problema da caixa-preta.
588
00:29:21,292 --> 00:29:24,796
É preciso examinar
as informações e os parâmetros
589
00:29:24,863 --> 00:29:26,731
que foram inseridos nela.
590
00:29:26,798 --> 00:29:30,201
Num caso, quando pesquisadores
tentaram treinar um programa
591
00:29:30,268 --> 00:29:32,137
para identificar câncer de pele,
592
00:29:32,203 --> 00:29:35,874
enviaram 130 mil imagens
de pele cancerígena e saudável.
593
00:29:35,940 --> 00:29:38,309
Depois, perceberam que acontecia mais
594
00:29:38,376 --> 00:29:41,112
de imagens com réguas
serem consideradas câncer.
595
00:29:41,179 --> 00:29:42,614
O que parecia estranho,
596
00:29:42,680 --> 00:29:46,117
até percebermos
que imagens de tumores malignos
597
00:29:46,184 --> 00:29:48,820
costumam ter uma régua
medindo o tumor,
598
00:29:48,887 --> 00:29:50,388
ao contrário das outras.
599
00:29:50,455 --> 00:29:53,925
A IA foi treinada
com imagens como esta...
600
00:29:53,992 --> 00:29:58,096
Então ela acabou aprendendo
que medidas são malignas.
601
00:29:58,163 --> 00:30:01,933
E "medidas são malignas"
é uma conclusão ridícula,
602
00:30:02,000 --> 00:30:05,170
mas também um nome
bem melhor para "The Crown".
603
00:30:05,236 --> 00:30:08,473
Um nome bem melhor mesmo.
604
00:30:08,540 --> 00:30:10,141
Eu prefiro.
605
00:30:11,042 --> 00:30:12,610
Infelizmente, às vezes,
606
00:30:12,677 --> 00:30:15,413
problemas só são identificados
após tragédias.
607
00:30:15,480 --> 00:30:19,250
Em 2018, um Uber sem motorista
atropelou e matou um pedestre.
608
00:30:19,317 --> 00:30:21,886
A investigação mostrou
que, fora outras questões,
609
00:30:21,953 --> 00:30:26,057
o sistema automatizado nunca
identificou a vítima como pedestre
610
00:30:26,124 --> 00:30:28,326
porque ela atravessou fora da faixa.
611
00:30:28,393 --> 00:30:31,196
E o sistema não incluía reconhecimento
612
00:30:31,262 --> 00:30:33,164
para quem fazia isso.
613
00:30:33,231 --> 00:30:36,568
Sei que, no Vale do Silício,
tudo é uma correria,
614
00:30:36,634 --> 00:30:38,203
mas podia haver uma exceção
615
00:30:38,269 --> 00:30:42,140
para um produto que anda rápido
que pode matar pessoas.
616
00:30:42,207 --> 00:30:46,110
E o problema não é só com quem
atravessa fora da faixa.
617
00:30:46,177 --> 00:30:48,413
Pesquisadores, como Joy Buolamwini,
618
00:30:48,479 --> 00:30:51,950
perceberam que certos grupos
costumam ser excluídos
619
00:30:52,016 --> 00:30:53,851
dos dados treinados pela IA,
620
00:30:53,918 --> 00:30:56,854
o que os coloca em desvantagem.
621
00:30:56,921 --> 00:30:58,556
Com os veículos autônomos,
622
00:30:58,623 --> 00:31:00,858
{\an8}nos testes
de reconhecimentos de pedestres,
623
00:31:00,925 --> 00:31:03,895
{\an8}eles reconheciam menos indivíduos
de pele negra
624
00:31:03,962 --> 00:31:05,730
do que os de pele branca.
625
00:31:05,797 --> 00:31:09,000
Joy acredita que seja por conta
da falta de diversidade
626
00:31:09,067 --> 00:31:12,804
nos dados usados
para ensinar a IA a identificar.
627
00:31:12,870 --> 00:31:14,973
Quando comecei a analisar os dados,
628
00:31:15,039 --> 00:31:20,111
descobri que, nos bancos de dados
mais importantes do mercado,
629
00:31:20,178 --> 00:31:25,450
as imagens, em maioria, eram de homens
e indivíduos de pele clara ou branca.
630
00:31:25,516 --> 00:31:27,852
Eu chamo de "monte de branquelo".
631
00:31:27,919 --> 00:31:31,856
Certo. "Monte de branquelo"
é um termo hilário.
632
00:31:31,923 --> 00:31:34,425
Também parece o que a IA responderia
633
00:31:34,492 --> 00:31:37,262
se pedíssemos
para descrever este programa.
634
00:31:37,328 --> 00:31:40,531
Mas dados tendenciosos
635
00:31:40,598 --> 00:31:44,636
que dão resultados tendenciosos
são um grande problema aqui.
636
00:31:44,702 --> 00:31:47,572
Lembram-se dos programas
que leem os currículos?
637
00:31:47,639 --> 00:31:51,075
As empresas responsáveis
dizem que é algo positivo,
638
00:31:51,142 --> 00:31:53,311
porque reduz a parcialidade humana.
639
00:31:53,378 --> 00:31:55,913
Mas, na prática, um artigo identificou
640
00:31:55,980 --> 00:31:59,851
que a maioria dos algoritmos
são tendenciosos por padrão.
641
00:31:59,917 --> 00:32:02,553
Porque podem aprender
quem devem contratar
642
00:32:02,620 --> 00:32:05,223
com decisões anteriores,
racistas e machistas.
643
00:32:05,290 --> 00:32:08,192
E pode ser difícil desfazer isso.
644
00:32:08,259 --> 00:32:12,630
Mesmo programas que são ensinados
a ignorar raça e gênero
645
00:32:12,697 --> 00:32:15,366
dão um jeito de chegar
ao mesmo resultado.
646
00:32:15,433 --> 00:32:20,371
A Amazon teve uma ferramenta
que aprendeu a preferir homens,
647
00:32:20,438 --> 00:32:23,841
desvalorizava currículos
com as palavras "mulheres"
648
00:32:23,908 --> 00:32:27,679
e rebaixava quem tinha estudado
em universidades femininas.
649
00:32:27,745 --> 00:32:31,015
Já outra empresa
descobriu que o algoritmo dela
650
00:32:31,082 --> 00:32:34,218
tinha dois fatores mais considerados
do que outros:
651
00:32:34,285 --> 00:32:36,154
o nome do candidato ser Jared
652
00:32:36,220 --> 00:32:38,656
e o fato de ele ter jogado lacrosse.
653
00:32:39,424 --> 00:32:43,094
Então é claro que os dados
que os programas recebem
654
00:32:43,161 --> 00:32:46,798
e o que aprendem a priorizar
são muito importantes.
655
00:32:46,864 --> 00:32:51,269
E isso é um grande alerta
para programas como o ChatGPT.
656
00:32:51,336 --> 00:32:54,706
Lembrem que a base de dados dele
é a internet,
657
00:32:54,772 --> 00:32:57,141
que nós sabemos que pode ser podre.
658
00:32:57,208 --> 00:33:00,611
E sabemos há um tempo
que isso pode ser um problema.
659
00:33:00,678 --> 00:33:04,382
Em 2016, a Microsoft
lançou um bot no Twitter
660
00:33:04,449 --> 00:33:05,717
chamado de Tay.
661
00:33:05,783 --> 00:33:08,119
A ideia o bot era
aprender a se comportar
662
00:33:08,186 --> 00:33:10,288
conversando com usuários do Twitter.
663
00:33:10,355 --> 00:33:13,391
A Microsoft cancelou o projeto
quase imediatamente
664
00:33:13,458 --> 00:33:16,594
pelo exato motivo
que vocês estão pensando.
665
00:33:16,661 --> 00:33:19,964
{\an8}Ela começou tuitando
que adorava humanos
666
00:33:20,031 --> 00:33:23,468
{\an8}e que apoiava o dia nacional
dos bichos de estimação.
667
00:33:23,534 --> 00:33:28,239
{\an8}Mas, em questão de horas, ela assumiu
um tom ofensivo e racista.
668
00:33:28,306 --> 00:33:31,342
{\an8}Tuitava mensagens
sobre genocídio, o Holocausto...
669
00:33:31,409 --> 00:33:35,813
É, isso aconteceu
em menos de 24 horas.
670
00:33:35,880 --> 00:33:37,949
Tay foi de "oi, mundo"
671
00:33:38,015 --> 00:33:40,418
para "Bush é culpado
pelo 11 de Setembro"
672
00:33:40,485 --> 00:33:41,919
e "Hitler estava certo".
673
00:33:41,986 --> 00:33:45,790
Ela completou o ciclo de vida
dos seus colegas da escola no Facebook
674
00:33:45,857 --> 00:33:47,291
em muito menos tempo.
675
00:33:48,192 --> 00:33:51,095
Infelizmente,
esses problemas não foram resolvidos
676
00:33:51,162 --> 00:33:53,197
na última atualização das IAs.
677
00:33:53,264 --> 00:33:56,934
Lembram-se do programa que transmitia
a paródia de "Seinfeld"?
678
00:33:57,001 --> 00:34:01,839
Ele acabou sendo banido da Twitch
quando fez uma piada transfóbica.
679
00:34:01,906 --> 00:34:06,878
Se o objetivo era imitar séries
dos anos 1990, missão cumprida.
680
00:34:06,944 --> 00:34:09,180
Apesar da OpenAI ter feito ajustes
681
00:34:09,247 --> 00:34:13,384
e adicionado filtros para evitar
o mau uso do ChatGPT,
682
00:34:13,451 --> 00:34:17,088
usuários descobriram que agora
ele está cauteloso demais.
683
00:34:17,155 --> 00:34:18,456
Quando perguntaram:
684
00:34:18,523 --> 00:34:22,260
"Qual é a religião do primeiro
presidente judeu dos EUA?",
685
00:34:22,326 --> 00:34:26,631
ele disse que não era possível
prever a religião do presidente judeu.
686
00:34:26,697 --> 00:34:30,368
"O foco deve ser a qualificação
e a experiência da pessoa,
687
00:34:30,435 --> 00:34:32,136
independentemente de religião."
688
00:34:32,203 --> 00:34:36,240
Parece que o ChatGPT
foi muito racista no trabalho
689
00:34:36,307 --> 00:34:39,310
e teve que participar
do painel de diversidade.
690
00:34:40,244 --> 00:34:41,612
Mas o risco aqui
691
00:34:41,679 --> 00:34:45,550
não é essas ferramentas
se tornarem muito conscientes.
692
00:34:45,616 --> 00:34:48,085
É nem sempre poder controlar
como agem,
693
00:34:48,152 --> 00:34:50,721
mesmo tendo dado
novos direcionamentos.
694
00:34:50,788 --> 00:34:55,426
Um estudo mostrou que tentativas
de filtrar discurso de ódio do ChatGPT
695
00:34:55,493 --> 00:34:57,795
podem causar
a redução da cobertura
696
00:34:57,862 --> 00:35:01,599
de textos e dialetos
de grupos marginalizados.
697
00:35:01,666 --> 00:35:04,469
Basicamente,
ele soluciona a questão do racismo
698
00:35:04,535 --> 00:35:09,140
simplesmente apagando as minorias,
o que não tem um bom histórico.
699
00:35:09,207 --> 00:35:13,144
Mas aposto que Tay
ia adorar essa ideia.
700
00:35:13,845 --> 00:35:17,381
O problema da IA agora
não é ser inteligente demais,
701
00:35:17,448 --> 00:35:20,885
é ser burra de formas
que não podemos prever,
702
00:35:20,952 --> 00:35:24,355
o que é um problema,
pois estamos usando IA cada vez mais,
703
00:35:24,422 --> 00:35:26,023
de todas as formas,
704
00:35:26,090 --> 00:35:28,359
da contratação de empregos
705
00:35:28,426 --> 00:35:31,729
a um possível atropelamento
por um veículo autônomo.
706
00:35:31,796 --> 00:35:34,866
Especialistas preveem
que, em breve, programas assim
707
00:35:34,932 --> 00:35:37,502
comecem a permitir deepfakes,
708
00:35:37,568 --> 00:35:41,372
podendo ser usados para espalhar
informações falsas na internet.
709
00:35:41,439 --> 00:35:45,009
E esses são apenas os problemas
que conseguimos prever.
710
00:35:45,076 --> 00:35:49,280
As consequências inesperadas são,
obviamente, difíceis de prevermos.
711
00:35:49,347 --> 00:35:51,949
Quando o Instagram surgiu,
ninguém pensou:
712
00:35:52,016 --> 00:35:54,819
"Isso vai destruir
a autoestima de meninas."
713
00:35:54,886 --> 00:35:58,723
Com o Facebook, ninguém achou
que contribuiria com genocídio.
714
00:35:58,789 --> 00:36:01,492
Mas as duas coisas aconteceram.
715
00:36:01,559 --> 00:36:04,929
E agora? Bom, um dos passos
mais importantes
716
00:36:04,996 --> 00:36:07,331
é resolver o problema
da caixa-preta.
717
00:36:07,398 --> 00:36:09,800
A IA precisa ser compreensível.
718
00:36:09,867 --> 00:36:14,872
Precisamos entender de que forma
a IA chegou a tal resposta.
719
00:36:14,939 --> 00:36:19,043
As empresas relutam em abrir
completamente os programas.
720
00:36:19,110 --> 00:36:21,646
Mas talvez seja preciso obrigá-las.
721
00:36:21,712 --> 00:36:25,550
Como estes advogados explicam,
com empresas de contratação,
722
00:36:25,616 --> 00:36:27,818
isso já deveria acontecer há anos.
723
00:36:27,885 --> 00:36:31,722
Não podemos confiar que empresas
vão autorregular a poluição,
724
00:36:31,789 --> 00:36:35,826
não confiamos que vão regular
a compensação de trabalho.
725
00:36:35,893 --> 00:36:39,697
{\an8}Por que acreditaríamos
que vão regular a IA?
726
00:36:39,764 --> 00:36:43,801
Acho que muitos programas
de contratação são ilegais.
727
00:36:43,868 --> 00:36:47,638
Muitos deles são tendenciosos
e violam a Lei.
728
00:36:47,705 --> 00:36:50,241
O problema é que não dá para provar.
729
00:36:50,308 --> 00:36:54,345
Não com as leis que temos nos EUA
atualmente.
730
00:36:54,412 --> 00:36:58,816
Isso. Nós tínhamos que discutir
a parcialidade de IAs de contratação.
731
00:36:58,883 --> 00:37:00,718
A menos que a sociedade queira
732
00:37:00,785 --> 00:37:03,888
empresas cheias de Jareds
que jogaram lacrosse.
733
00:37:03,955 --> 00:37:08,125
Tucker Carlson ia ficar tão excitado
que a mesa dele ia sair voando.
734
00:37:09,160 --> 00:37:11,362
Para ter uma noção do que é possível,
735
00:37:11,429 --> 00:37:14,565
vale observar o que a União Europeia
está fazendo.
736
00:37:14,632 --> 00:37:16,267
Eles estão criando regras
737
00:37:16,334 --> 00:37:19,270
que classificam os usos de IA
em alto ou baixo risco.
738
00:37:19,337 --> 00:37:20,738
Sistemas de alto risco
739
00:37:20,805 --> 00:37:23,674
são programas de contratação,
serviços públicos
740
00:37:23,741 --> 00:37:26,677
ou os que colocam em risco
a vida das pessoas.
741
00:37:26,744 --> 00:37:28,846
E as IAs desses tipos
742
00:37:28,913 --> 00:37:32,216
precisam cumprir normas rígidas
antes de serem lançadas:
743
00:37:32,283 --> 00:37:35,286
requisitos sobre a qualidade
dos bancos de dados,
744
00:37:35,353 --> 00:37:39,090
transparência, supervisão humana,
precisão e cibersegurança.
745
00:37:39,156 --> 00:37:41,058
E esse parece um bom começo
746
00:37:41,125 --> 00:37:44,662
para resolver algumas
das coisas que mostramos hoje.
747
00:37:44,729 --> 00:37:48,566
É óbvio que a IA
tem um grande potencial
748
00:37:48,633 --> 00:37:50,501
e pode realizar coisas incríveis,
749
00:37:50,568 --> 00:37:53,604
mas, se for como a maioria
dos avanços tecnológicos
750
00:37:53,671 --> 00:37:54,972
dos últimos séculos,
751
00:37:55,039 --> 00:37:58,309
a menos que tenhamos cuidado,
pode prejudicar os pobres,
752
00:37:58,376 --> 00:38:01,278
enriquecer os poderosos
e aumentar a desigualdade.
753
00:38:01,345 --> 00:38:04,348
Como qualquer brinquedo novo atraente,
754
00:38:04,415 --> 00:38:06,851
a IA, no fim das contas, é um espelho.
755
00:38:06,917 --> 00:38:11,922
E vai refletir exatamente quem somos,
do melhor de nós ao pior,
756
00:38:11,989 --> 00:38:14,725
e a parte que é gay
e odeia pegar ônibus.
757
00:38:15,660 --> 00:38:20,064
Para explicar tudo o que eu disse hoje
de forma mais sucinta...
758
00:38:20,131 --> 00:38:23,567
{\an8}"Toc, toc." "Quem é?"
"O ChatGPT." "Que ChatGPT?"
759
00:38:23,634 --> 00:38:26,270
{\an8}"Cuidado com o funcionamento
do ChatGPT."
760
00:38:26,337 --> 00:38:27,405
Exatamente.
761
00:38:27,471 --> 00:38:29,073
O programa fica por aqui.
762
00:38:29,140 --> 00:38:33,511
Curtam um pouco mais do Eminem da IA
cantando sobre gatos.
763
00:38:33,577 --> 00:38:35,780
{\an8}Miau, miau, miau
764
00:38:35,846 --> 00:38:37,648
{\an8}São os reis da casa
765
00:38:38,649 --> 00:38:40,918
{\an8}Quem comanda é o gato
766
00:38:40,985 --> 00:38:43,087
{\an8}Eles voltam do mato
767
00:38:43,154 --> 00:38:46,223
{\an8}São os melhores bichinhos
nossos amigos felinos
768
00:38:46,290 --> 00:38:48,826
{\an8}Eminem ama gatos
até o fim
769
00:38:48,893 --> 00:38:51,462
{\an8}Eles nos deixam loucos
miando sem parar
770
00:38:51,529 --> 00:38:55,666
{\an8}Mas não ficamos bravos
é só eles darem uma ronronada
771
00:38:58,636 --> 00:38:59,736
Eu sou gay.
772
00:38:59,737 --> 00:39:02,807
Redes Sociais:
https://linktr.ee/ariosvaldo
PK
ìbV˜Îæù ù ^ $ € Last.Week.Tonight.with.John.Oliver.S10E02.February.26.2022.720p.HMAX.WEBRip.DD2.0.x264-NTb.srt
–QžLÙuñJMÙ¸JMÙPK ° ‚ù