•
INSTITUTO TECNOLÓGICO DE AERONÁUTICA-VESTIBULAR-2020. From https://vestibular.ita.br.
❑ ESTRUTURA DA PROVA:
• INSTITUTO TECNOLÓGICO DE AERONÁUTICA-VESTIBULAR-2020. From https://vestibular.ita.br.
Fonte:
https://www.economist.com/leaders/2016/06/25/march-of-the-machines. Adaptado.
Acesso em agosto de 2019.
01 – (ITA/SP-VESTIBULAR-2020)
Leia as afirmações a seguir para responder à questão.
I. Redes neurais alimentam
o mecanismo de busca do Google, o assistente de voz da Apple, a identificação
de fotografias no Facebook, as sugestões de compras da Amazon, os carros
autônomos da Tesla.
II. O temor de que as
máquinas substituiriam o trabalho humano era real há duzentos anos, mas
superado na atualidade.
III. Steven Hawkings e Elon
Musk especulam se a I.A. pode sair do controle, levando pessoas e máquinas a um
conflito somente visto em obras de ficção científica.
IV. Duzentos anos atrás, a controvérsia sobre os perigos impostos pelas máquinas era conhecida como “a questão das máquinas”.
De acordo com as informações do texto, estão corretas as afirmações:
(A) ( ) I e II.
(B) ( ) I, II e III.
(C) ( ) II, III e IV.
(D) ( ) I, III e IV.
(E) ( ) III e IV.
02 – (ITA/SP-VESTIBULAR-2020)
A palavra sublinhada nos trechos retirados do texto pode ser substituída, sem alteração de significado, pela palavra ou expressão da segunda coluna, exceto em:
(A) render the population redundant à unnecessary.
(B) pose a “Terminator”-style threat to humanity à intimidation.
(C) After many false dawns à break of days.
(D) this rapid progress has also led to concerns à disregards.
(E) AI will cause widespread unemployment à far-reaching.
❑ TEXTO 2: As questões 03 a 05 referem-se ao texto destacado a seguir:
If there is any doubt about the persistent power of literature in the face of digital culture, it should be banished by the recent climb of George Orwell’s 1984 up the Amazon “Movers and Shakers” list. There is much that’s resonant for us in Orwell’s dystopia in the face of Edward Snowden’s revelations about the NSA […].
We look to 1984 as a clear cautionary tale, even a prophecy, of systematic abuse of power taken to the end of the line. […] However, after “THE END” of his dystopian novel 1984, George Orwell includes another chapter, an appendix, called “The Principles of Newspeak.” Since it has the trappings of a tedious scholarly treatise, readers often skip the appendix. But it changes our whole understanding of the novel. Written from some unspecified point in the future, it suggests that Big Brother was eventually defeated. The victory is attributed not to individual rebels or to The Brotherhood, an anonymous resistance group, but rather to language itself. The appendix details Oceania’s attempt to replace Oldspeak, or English, with Newspeak, a linguistic shorthand that reduces the world of ideas to a set of simple, stark words. “The whole aim of Newspeak is to narrow the range of thought.” It will render dissent “literally impossible, because there will be no words in which to express it.”
Fonte: Frost, Laura. http://qz.com/95696. Adaptado. Acesso em agosto de 2019.
❑ TRADUÇÃO:
If there is any doubt about the persistent power of literature in the face of digital culture, it should be banished by the recent climb of George Orwell’s 1984 up the Amazon “Movers and Shakers” list. Se houver alguma dúvida sobre o poder persistente da literatura face à cultura digital, ela deveria ser banida pela recente subida de 1984, de George Orwell, à lista dos “Movers and Shakers” da Amazon.
There is much that’s resonant for us in Orwell’s dystopia in the face of Edward Snowden’s revelations about the NSA […]. Há muita coisa que ressoa para nós na distopia de Orwell face às revelações de Edward Snowden sobre a NSA […].
We look to 1984 as a clear cautionary tale, even a prophecy, of systematic abuse of power taken to the end of the line. Olhamos para 1984 como uma clara história de advertência, até mesmo uma profecia, de abuso sistemático de poder levado até ao fim da linha. […]
However, after “THE END” of his dystopian novel 1984, George Orwell includes another chapter, an appendix, called “The Principles of Newspeak.” No entanto, depois de “THE END” de seu romance distópico 1984, George Orwell inclui outro capítulo, um apêndice, chamado “The Principles of Novilíngua”.
Since it has the trappings of a tedious scholarly treatise, readers often skip the appendix. Como tem as características de um tratado acadêmico tedioso, os leitores muitas vezes ignoram o apêndice.
But it changes our whole understanding of the novel. Mas isso muda toda a nossa compreensão do romance.
Written from some unspecified point in the future, it suggests that Big Brother was eventually defeated. Escrito a partir de algum ponto não especificado no futuro, sugere que o Big Brother acabou sendo derrotado.
The victory is attributed not to individual rebels or to The Brotherhood, an anonymous resistance group, but rather to language itself. A vitória não é atribuída a rebeldes individuais ou à Irmandade, um grupo de resistência anônimo, mas sim à própria linguagem.
The appendix details Oceania’s attempt to replace Oldspeak, or English, with Newspeak, a linguistic shorthand that reduces the world of ideas to a set of simple, stark words. O apêndice detalha a tentativa da Oceania de substituir Oldspeak, ou inglês, por Novilíngua, uma abreviatura linguística que reduz o mundo das ideias a um conjunto de palavras simples e duras.
“The whole aim of Newspeak is to narrow the range of thought.” It will render dissent “literally impossible, because there will be no words in which to express it.” “Todo o objetivo da Novilíngua é estreitar o leque de pensamento.” Tornará a dissidência “literalmente impossível, porque não haverá palavras para expressá-la”.
03 – (ITA/SP-VESTIBULAR-2020)
De acordo com o texto, em geral, os leitores do clássico 1984, de George Orwell, dispensam a leitura do apêndice da obra porque
(A) não foi escrito pelo
próprio autor.
(B) acreditam se tratar de
mais um longo texto acadêmico.
(C) sua leitura não altera
a compreensão da obra.
(D) foi escrito após a
publicação do romance.
(E) sua autoria é desconhecida.
04 – (ITA/SP-VESTIBULAR-2020)
No trecho “but rather, to language itself”, o termo rather pode ser substituído, sem alteração de sentido, por
(A) to some
extent.
(B) on behalf
of.
(C) instead of.
(D) in support
of.
(E) more exactly.
05 – (ITA/SP-VESTIBULAR-2020)
De acordo com o texto, é incorreto afirmar que
(A) na obra 1984, Orwell
retrata um mundo distópico que ainda possui relevância nos tempos atuais.
(B) a obra 1984 é
considerada como um alerta para o uso abusivo do poder levado às últimas
consequências.
(C) no apêndice, há o
relato da tentativa de substituição da Oldspeak por uma língua mais abreviada
(simplificada).
(D) o vocabulário da
Newspeak é tão complexo que se torna difícil usá-lo para expressar
discordância.
(E) Newspeak é uma língua que impossibilita externalizar um pensamento mais complexo.
❑ TEXTO 3: As questões 06 a 08 referem-se ao texto destacado:
“Of course they’re fake videos, everyone can see
they're not real. All the same, they really did say those things, didn't they?”
These are the words of Vivienne Rook, the fictional politician played by Emma
Thompson in the brilliant dystopian BBC TV drama Years and Years. The episode
in question, set in 2027, tackles the subject of “deepfakes” – videos in which
a living person's face and voice are digitally manipulated to say anything the
programmer wants. Rook perfectly sums up the problem with these videos – even
if you know they are fake, they leave a lingering impression. And her words are
all the more compelling because deepfakes are real and among us already. Last
year, several deepfake porn videos emerged online, appearing to show
celebrities such as Emma Watson, Gal Gadot and Taylor Swift in explicit
situations.
[…]
In some cases, the deepfakes are almost indistinguishable from the real thing – which is particularly worrying for politicians and other people in the public eye. Videos that may initially have been created for laughs could easily be misinterpreted by viewers. Earlier this year, for example, a digitally altered video appeared to show Nancy Pelosi, the speaker of the US House of Representatives, slurring drunkenly through a speech. The video was widely shared on Facebook and YouTube, before being tweeted by President Donald Trump with the caption: “PELOSI STAMMERS THROUGH NEWS CONFERENCE”. The video was debunked, but not before it had been viewed millions of times. Trump has still not deleted the tweet, which has been retweeted over 30,000 times.
The current approach of social media companies is to filter out and reduce the distribution of deepfake videos, rather than outright removing them – unless they are pornographic. This can result in victims suffering severe reputational damage, not to mention ongoing humiliation and ridicule from viewers. “Deepfakes are one of the most alarming trends I have witnessed as a Congresswoman to date,” said US Congresswoman Yvette Clarke in a recent article for Quartz. “If the American public can be made to believe and trust altered videos of presidential candidates, our democracy is in grave danger. We need to work together to stop deepfakes from becoming the defining feature of the 2020 elections.”
Of course, it’s not just democracy that is at risk,
but also the economy, the legal system and even individuals themselves. Clarke
warns that, if deepfake technology continues to evolve without a check, video
evidence could lose its credibility during trials. It is not hard to imagine it
being used by disgruntled ex-lovers, employees and random people on the
internet to exact revenge and ruin people’s reputations. The software for
creating these videos is already widely available.
Fonte: Curtis,
Sophie. https://www.mirror.co.uk/tech/deepfake-videos-creepy-new-internet-18289900.
Adaptado. Acessado em Agosto/2019.
❑ TRADUÇÃO:
“Of course they’re fake videos, everyone can see they're not real. All the same, they really did say those things, didn't they?” These are the words of Vivienne Rook, the fictional politician played by Emma Thompson in the brilliant dystopian BBC TV drama Years and Years. The episode in question, set in 2027, tackles the subject of “deepfakes” – videos in which a living person's face and voice are digitally manipulated to say anything the programmer wants. Rook perfectly sums up the problem with these videos – even if you know they are fake, they leave a lingering impression. And her words are all the more compelling because deepfakes are real and among us already. Last year, several deepfake porn videos emerged online, appearing to show celebrities such as Emma Watson, Gal Gadot and Taylor Swift in explicit situations.
In some cases, the deepfakes are almost indistinguishable from the real thing – which is particularly worrying for politicians and other people in the public eye. Videos that may initially have been created for laughs could easily be misinterpreted by viewers. Earlier this year, for example, a digitally altered video appeared to show Nancy Pelosi, the speaker of the US House of Representatives, slurring drunkenly through a speech. The video was widely shared on Facebook and YouTube, before being tweeted by President Donald Trump with the caption: “PELOSI STAMMERS THROUGH NEWS CONFERENCE”. The video was debunked, but not before it had been viewed millions of times. Trump has still not deleted the tweet, which has been retweeted over 30,000 times. Em alguns casos, os deepfakes são quase indistinguíveis dos reais – o que é particularmente preocupante para os políticos e outras pessoas públicas. Vídeos que inicialmente foram criados para rir podem facilmente ser mal interpretados pelos espectadores. No início deste ano, por exemplo, um vídeo alterado digitalmente parecia mostrar Nancy Pelosi, a presidente da Câmara dos Representantes dos EUA, a fazer um discurso arrastado e bêbado. O vídeo foi amplamente compartilhado no Facebook e no YouTube, antes de ser tuitado pelo presidente Donald Trump com a legenda: “PELOSI STAMMERS ATRAVÉS DA CONFERÊNCIA DE NOTÍCIAS”. O vídeo foi desmascarado, mas não antes de ter sido visto milhões de vezes. Trump ainda não excluiu o tweet, que foi retuitado mais de 30 mil vezes.
The current approach of social media companies is to filter out and reduce the distribution of deepfake videos, rather than outright removing them – unless they are pornographic. This can result in victims suffering severe reputational damage, not to mention ongoing humiliation and ridicule from viewers. “Deepfakes are one of the most alarming trends I have witnessed as a Congresswoman to date,” said US Congresswoman Yvette Clarke in a recent article for Quartz. “If the American public can be made to believe and trust altered videos of presidential candidates, our democracy is in grave danger. We need to work together to stop deepfakes from becoming the defining feature of the 2020 elections.” A abordagem atual das empresas de redes sociais é filtrar e reduzir a distribuição de vídeos deepfake, em vez de removê-los completamente – a menos que sejam pornográficos. Isso pode fazer com que as vítimas sofram graves danos à reputação, sem mencionar a humilhação e o ridículo contínuos por parte dos telespectadores. “Deepfakes são uma das tendências mais alarmantes que testemunhei como congressista até agora”, disse a congressista norte-americana Yvette Clarke em um artigo recente para a Quartz. “Se for possível fazer com que o público americano acredite e confie em vídeos alterados de candidatos presidenciais, a nossa democracia estará em grave perigo. Precisamos trabalhar juntos para impedir que os deepfakes se tornem a característica definidora das eleições de 2020.”
Of course, it’s not just democracy that is at risk, but also the economy, the legal system and even individuals themselves. Clarke warns that, if deepfake technology continues to evolve without a check, video evidence could lose its credibility during trials. It is not hard to imagine it being used by disgruntled ex-lovers, employees and random people on the internet to exact revenge and ruin people’s reputations. The software for creating these videos is already widely available. É claro que não é apenas a democracia que está em risco, mas também a economia, o sistema jurídico e até os próprios indivíduos. Clarke alerta que, se a tecnologia deepfake continuar a evoluir sem verificação, as evidências de vídeo poderão perder sua credibilidade durante os julgamentos. Não é difícil imaginá-lo sendo usado por ex-amantes descontentes, funcionários e pessoas aleatórias na internet para se vingar e arruinar a reputação das pessoas. O software para criar esses vídeos já está amplamente disponível.
06 – (ITA/SP-VESTIBULAR-2020)
De acordo com o texto, é correto afirmar que
(A) mesmo
que se saiba que são falsos, os vídeos deepfake deixam uma impressão duradoura.
(B) os
vídeos deepfake surgiram na mini série distópica da BBC TV intitulada Years and
Years.
(C)
apesar de serem falsos, os vídeos deepfake reproduzem falas reais das pessoas
retratadas.
(D) os
vídeos deepfake somente retratam figuras notórias, como Obama, Trump,
Zuckerberg, fazendo discursos inflamados.
(E) o criador da tecnologia dos vídeos deepfake possui controle total sobre dados pessoais de bilhões de indivíduos.
07 – (ITA/SP-VESTIBULAR-2020)
No trecho: “it’s not just democracy that is at risk, but also the economy”, a expressão sublinhada expressa uma ideia de
(A)
oposição.
(C)
concordância.
(E)
contraste.
(B)
concessão.
(D) adição.
08 – (ITA/SP-VESTIBULAR-2020)
De acordo com a congressista Yvette Clarke, pelos diversos riscos representados pelos vídeos deepfake, é necessário
(A) bani-los
totalmente da Internet.
(B)
proibir e criminalizar seu compartilhamento.
(C)
impedir sua presença nas eleições futuras.
(D)
filtrar e diminuir sua presença nas redes digitais.
(E) fiscalizar e controlar essa tecnologia.
❑ TEXTO 4: As questões 09 a 10 referem-se ao texto destacado:
About seven years ago, three researchers at the University of Toronto built a system that could analyze thousands of photos and teach itself to recognize everyday objects, like dogs, cars and flowers. The system was so effective that Google bought the tiny start-up these researchers were only just getting off the ground. And soon, their system sparked a technological revolution. Suddenly, machines could “see” in a way that was not possible in the past.
This made it easier for a smartphone app to search your personal photos and find the images you were looking for. It accelerated the progress of driverless cars and other robotics. And it improved the accuracy of facial recognition services, for social networks like Facebook and for the country’s law enforcement agencies. But soon, researchers noticed that these facial recognition services were less accurate when used with women and people of color. Activists raised concerns over how companies were collecting the huge amounts of data needed to train these kinds of systems. Others worried these systems would eventually lead to mass surveillance or autonomous weapons.
Fonte: Matz, Cade. Seeking Ground Rules for A. I. www.nytimes.com 01/03/2019. Adaptado. Acessado em Agosto/2019.
❑ TEXTO 4: As questões 09 a 10 referem-se ao texto destacado:
About seven years ago, three researchers at the University of Toronto built a system that could analyze thousands of photos and teach itself to recognize everyday objects, like dogs, cars and flowers. Há cerca de sete anos, três pesquisadores da Universidade de Toronto construíram um sistema que poderia analisar milhares de fotos e aprender sozinho a reconhecer objetos do cotidiano, como cães, carros e flores.
The system was so effective that Google bought the tiny start-up these researchers were only just getting off the ground. O sistema foi tão eficaz que o Google comprou a pequena start-up que esses pesquisadores estavam apenas começando.
And soon, their system sparked a technological revolution. E logo, o sistema deles desencadeou uma revolução tecnológica.
Suddenly, machines could “see” in a way that was not possible in the past. De repente, as máquinas puderam “ver” de uma forma que não era possível no passado.
This made it easier for a smartphone app to search your personal photos and find the images you were looking for. Isso tornou mais fácil para um aplicativo de smartphone pesquisar suas fotos pessoais e encontrar as imagens que você procurava.
It accelerated the progress of driverless cars and other robotics. Acelerou o progresso dos carros sem motorista e de outras robóticas.
And it improved the accuracy of facial recognition services, for social networks like Facebook and for the country’s law enforcement agencies. E melhorou a precisão dos serviços de reconhecimento facial, para redes sociais como o Facebook e para as agências policiais do país.
But soon, researchers noticed that these facial recognition services were less accurate when used with women and people of color. Mas logo os pesquisadores perceberam que esses serviços de reconhecimento facial eram menos precisos quando usados com mulheres e pessoas de cor.
Activists raised concerns over how companies were collecting the huge amounts of data needed to train these kinds of systems. Os ativistas levantaram preocupações sobre a forma como as empresas estavam a recolher as enormes quantidades de dados necessários para treinar este tipo de sistemas.
Others worried these systems would eventually lead to mass surveillance or autonomous weapons. Outros temiam que estes sistemas acabassem por levar à vigilância em massa ou a armas autônomas.
09 – (ITA/SP-VESTIBULAR-2020)
De acordo com as informações do texto, selecione a alternativa que melhor complete a afirmação:
The new system proved to be less precise when
(A) applied to driverless cars.
(B) adjusted to users’ face recognition in
social networks.
(C) identifying inanimate objects like cars and
plants.
(D) used to identify Africans and African
descendants.
(E) tested by American law enforcement agencies.
10 – (ITA/SP-VESTIBULAR-2020)
Analise as afirmações de I a IV em destaque.
I. Ativistas manifestaram
preocupação em relação à forma como as empresas estavam coletando enormes
quantidades de dados para treinar sistemas de reconhecimento.
II. A Universidade de
Toronto construiu um sistema ético de Inteligência Artificial para
reconhecimento de imagens.
III. Uma das preocupações
de ativistas era a possibilidade de tais sistemas conduzirem a vigilância em
massa ou armamento autônomo.
IV. Empresas privadas de
tecnologia, como Google, e redes digitais, como Facebook, junto com algumas
agências governamentais, chegaram a um consenso quanto a uma ética da
Inteligência Artificial.
V. Algumas leis foram desenvolvidas por alguns grupos específicos de pessoas para decidir sobre o futuro da Inteligência Artificial.
De acordo com o texto, estão corretas apenas:
(A) I e II.
(B) II, III e V.
(C) I e III.
(D) II, IV e V.
(E) I, III e IV.