Get Even More Visitors To Your Blog, Upgrade To A Business Listing >>

O uso de IA nas eleições desencadeia uma batalha sobre grades de proteção

Em Toronto, um candidato na eleição para prefeito desta semana que promete limpar acampamentos de sem-teto divulgou uma série de promessas de campanha ilustradas por inteligência artificial, incluindo falsas imagens distópicas de pessoas acampadas em uma rua do centro e uma imagem fabricada de tendas montadas em um parque.

Um partido político publicado na Nova Zelândia uma representação de aparência realista no Instagram de ladrões falsos furiosos em uma joalheria.

Em Chicago, o vice-prefeito de abril reclamou que uma conta no Twitter que se passava por uma agência de notícias havia usado IA para clonar sua voz de uma forma que sugeria que ele tolerava a brutalidade policial.

O que começou há alguns meses como um fluxo lento de e-mails de doação e imagens promocionais reunidas pela IA para campanhas políticas evoluiu para um fluxo constante de materiais de campanha projetados pela Tecnologia e o manual político para eleições democráticas reescrito em todo o mundo.

Conselheiros políticos, pesquisadores eleitorais e legisladores são cada vez mais da opinião de que a introdução de novos trilhos de proteção, como a legislação para restringir a publicidade gerada sinteticamente, deve ser uma prioridade urgente. As defesas existentes, como regras de mídia social e serviços que afirmam reconhecer o conteúdo de IA, não fizeram muito para diminuir a tendência.

À medida que a corrida presidencial dos EUA em 2024 esquenta, algumas campanhas já estão testando a tecnologia. O Comitê Nacional Republicano divulgou um vídeo mostrando imagens geradas artificialmente do cenário apocalíptico depois que o presidente Biden anunciou sua candidatura à reeleição, enquanto o governador da Flórida, Ron DeSantis, usou imagens falsas do ex-presidente Donald J. Trump com o Dr. Anthony Fauci, o ex-secretário de saúde, oficialmente lançado. O Partido Democrata experimentou mensagens de doação escritas por inteligência artificial nesta primavera – e descobriu que elas eram frequentemente mais eficazes em gerar engajamento e doações do que textos escritos inteiramente por humanos.

Alguns políticos veem a inteligência artificial como uma forma de reduzir os custos de campanha, usando-a para gerar respostas instantâneas para questões de debate, para anúncios de ataque ou para analisar dados que, de outra forma, poderiam exigir especialistas caros.

Ao mesmo tempo, a tecnologia tem o potencial de espalhar desinformação para um público amplo. Um vídeo falso nada lisonjeiro, um e-mail cheio de narrativas falsas produzidas por computador ou uma imagem inventada da decadência urbana podem reforçar o preconceito e ampliar as divisões partidárias, mostrando aos eleitores o que eles esperam ver, dizem os especialistas.

A tecnologia já é muito mais poderosa do que a manipulação manual – não é perfeita, mas evolui rapidamente e é fácil de aprender. Em maio, o CEO da OpenAI, Sam Altman, cuja empresa provocou um boom de inteligência artificial no ano passado com seu popular chatbot ChatGPT, Disse a um subcomitê do Senado que estava nervoso com a temporada eleitoral.

Ele disse que a capacidade da tecnologia de “manipular, persuadir e fornecer uma espécie de desinformação individual interativa” é “uma área significativa de preocupação”.

A deputada Yvette D. Clarke, democrata de Nova York, disse em um comunicado no mês passado que o ciclo eleitoral de 2024 “será a primeira eleição em que o conteúdo gerado por IA prevalecerá”. , de Minnesota, aprovou uma legislação que exigiria que anúncios políticos usando material feito pelo homem incluíssem um aviso legal. Um projeto de lei semelhante foi recentemente promulgado no estado de Washington.

A Associação Americana de Consultores Políticos condenou recentemente o uso de conteúdo deepfake em campanhas políticas como uma violação de seu código de ética.

“As pessoas ficarão tentadas a ir além e ver aonde podem ir”, disse Larry Huynh, o novo presidente do grupo. “Como acontece com qualquer ferramenta, usá-la para mentir para os eleitores, enganá-los ou fazê-los acreditar em algo que não existe pode resultar em maus resultados e más ações.”

A recente incursão da tecnologia na política surpreendeu Toronto, uma cidade que apóia um próspero ecossistema de pesquisa em inteligência artificial e startups. A eleição para prefeito acontecerá na segunda-feira.

Anthony Furey, um candidato conservador na corrida e ex-colunista de notícias, expôs recentemente sua agenda um documento Tinha dezenas de páginas e conteúdo gerado sinteticamente que ajudou a impor sua posição dura sobre o crime.

Após uma inspeção mais detalhada, ficou claro que muitas das imagens não eram reais: uma cena de laboratório apresentava cientistas que pareciam bolhas extraterrestres. Em outra representação, uma mulher usava um alfinete com escrita ilegível em seu cardigã; Marcações semelhantes podem ser vistas na foto de uma fita de barreira em um canteiro de obras. Um retrato sintético de uma mulher sentada com dois braços cruzados e um terceiro braço tocando seu queixo também foi usado na campanha de Furey.

Os outros candidatos usaram essa foto para rir em um debate este mês: “Na verdade, usamos imagens reais”, disse Josh Matlow, que compartilhou uma foto de sua família, acrescentando que “ninguém em nossas fotos tem três braços”.

No entanto, as representações desleixadas foram usadas para apoiar o argumento do Sr. Furey. Ele ganhou impulso suficiente para se tornar um dos nomes mais conhecidos em uma eleição com mais de 100 candidatos. No mesmo debate, ele reconheceu o uso da tecnologia em sua campanha, acrescentando: “Vamos dar algumas risadas aqui enquanto aprendemos mais sobre IA”.

Especialistas em políticas temem que, se mal utilizada, a inteligência artificial possa ter um efeito corrosivo no processo democrático. A desinformação é um risco constante; Um concorrente de Furey disse em um debate que, embora sua equipe usasse o ChatGPT, eles sempre verificavam os resultados.

“Se alguém pode fazer barulho, criar incerteza ou criar narrativas falsas, pode ser uma maneira poderosa de influenciar os eleitores e vencer a disputa”, escreveu Darrell M. West, membro sênior da Brookings Institution. em um relatório Mês passado. “Com a eleição presidencial de 2024 potencialmente envolvendo dezenas de milhares de eleitores em alguns estados, qualquer coisa que possa mover as pessoas em uma direção ou outra pode acabar sendo crucial”.

O conteúdo de IA cada vez mais sofisticado está surgindo com frequência cada vez maior nas redes sociais, a maioria das quais não quer ou não consegue monitorá-lo, disse Ben Colman, diretor executivo da Reality Defender, uma empresa que fornece serviços de detecção de IA. A fraca supervisão permite que o conteúdo sintético não rotulado cause “danos irreversíveis” antes de ser consertado, disse ele.

“Explicar a milhões de usuários que o conteúdo que eles já viram e compartilharam era falso muito depois do fato ser muito pouco e muito tarde”, disse Colman.

Por vários dias este mês uma transmissão ao vivo do Twitch teve um debate inseguro ininterrupto entre versões sintéticas do Sr. Biden e do Sr. Trump. Ambos foram claramente identificados como “entidades de IA” simuladas, mas se uma campanha política organizada criasse tal conteúdo e o disseminasse amplamente sem divulgação, poderia facilmente diminuir o valor do material do mundo real, disseram especialistas em desinformação.

Os políticos podem ignorar a responsabilidade e alegar que imagens autênticas de atos comprometedores não são reais, um fenômeno conhecido como “dividendo do mentiroso”. Cidadãos comuns poderiam fazer suas próprias falsificações, enquanto outros poderiam se aprofundar em bolhas de informações polarizadas e acreditar apenas nas fontes em que escolheram acreditar.

“Quando as pessoas não conseguem acreditar em seus olhos e ouvidos, elas podem simplesmente dizer: ‘Quem sabe?'”, escreveu Josh A. Goldstein, pesquisador do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown, em um e-mail. “Isso pode encorajar uma transição de um ceticismo saudável que encoraja bons hábitos (como leitura paralela e busca de fontes confiáveis) para um ceticismo doentio de que é impossível saber o que é verdade”.



This post first appeared on Arena 4G, please read the originial post: here

Share the post

O uso de IA nas eleições desencadeia uma batalha sobre grades de proteção

×

Subscribe to Arena 4g

Get updates delivered right to your inbox!

Thank you for your subscription

×