Get Even More Visitors To Your Blog, Upgrade To A Business Listing >>

Tenham cuidado com os chatbots, diz a Alphabet aos funcionários

A Alphabet alertou os seus funcionários sobre os riscos de Privacidade e segurança associados ao uso de Chatbots de inteligência artificial (IA).

O destaque vai para o Bard, chatbot de IA generativa criado e operado pela Google, do qual a Alphabet é proprietária, e para o ChatGPT da OpenAI, apoiado pela Microsoft.

Funcionários não devem partilhar informações confidenciais

A Alphabet instruiu os seus colaboradores a não introduzirem informações confidenciais no Bard, bem como noutros chatbots. A empresa manifestou preocupação com a possibilidade de revisores humanos poderem aceder às conversas entre os utilizadores e os chatbots, representando um risco para a privacidade pessoal e a potencial exposição de segredos comerciais.

Os chatbots, alimentados por IA, têm sido objeto de grande interesse nos últimos meses devido à sua notável capacidade de conversar de forma semelhante à humana e até de realizar tarefas como escrever ensaios e relatórios, bem como fazer testes académicos com sucesso.

No entanto, os revisores humanos podem ter acesso às conversas dos utilizadores, o que levanta preocupações em termos de privacidade e confidencialidade.

Não revelem informações sensíveis aos chatbots

Os chatbots, incluindo o Bard e o ChatGPT, são parcialmente treinados com base nas trocas de texto dos utilizadores. Isso significa que, com determinadas instruções, os chatbots podem potencialmente repetir informações confidenciais que foram transmitidas durante as conversas. A Alphabet está particularmente preocupada com essa possibilidade, tendo em conta a potencial exposição de segredos comerciais.

Na página do Bard, a Google adverte os utilizadores para não incluírem informações que possam levar à sua identificação pessoal ou à identificação de terceiros nas conversas com o chatbot. A empresa recolhe essas conversas, bem como informações sobre a utilização do produto, localização e comentários dos utilizadores, com o objetivo de melhorar os produtos e serviços Google.

Armazenamento de dados e medidas de privacidade

A Google afirma armazenar a atividade do Bard durante um período máximo de 18 meses, mas os utilizadores têm a opção de alterar esse período para 3 ou 36 meses nas suas contas Google. A fim de garantir a privacidade, as conversas do Bard são dissociadas de uma conta Google antes de serem analisadas por revisores humanos.

Embora o aviso da Alphabet esteja em vigor há algum tempo, recentemente foi expandido para orientar os funcionários a evitarem a utilização de códigos informáticos precisos gerados pelos chatbots. A empresa justifica essa medida ao afirmar que o Bard pode ocasionalmente fazer “sugestões de código indesejadas”, embora a ferramenta atual seja considerada útil na programação, noticia a Reuters.

Outras empresas também alertam sobre riscos de privacidade

Além da Alphabet, outras gigantes da tecnologia, como a Samsung, a Apple e a Amazon, também estão a alertar os seus funcionários sobre os riscos de privacidade e segurança relacionados ao uso de chatbots de IA. A Samsung emitiu recentemente uma instrução semelhante após alguns funcionários terem introduzido dados sensíveis relacionados com semicondutores no ChatGPT.

Essas empresas estão a adotar uma política interna para proteger a privacidade dos seus funcionários e evitar possíveis violações de segurança ao utilizar chatbots de IA.

Outros artigos interessantes:

  • Automóveis BYD. Tudo o que quer saber sobre a marca chinesa
  • Xiaomi Electric Scooter 4 e 4 Lite já chegaram a Portugal
  • Tesla mostra o seu robô humanoide


This post first appeared on TecheNet | Blog De Notícias Vocacionado Para A Di, please read the originial post: here

Share the post

Tenham cuidado com os chatbots, diz a Alphabet aos funcionários

×

Subscribe to Techenet | Blog De Notícias Vocacionado Para A Di

Get updates delivered right to your inbox!

Thank you for your subscription

×