Revelar segredos e opiniões para sistemas de IA é imprudente, diz especialista na tecnologia

A inteligência artificial (IA) é uma tecnologia que dá às máquinas a possibilidade de terem conhecimentos através de experiências, e permite que elas se adaptem ao seu meio e desempenhem tarefas quase da mesma maneira que um ser humano faria. O ponto é que ninguém sabe ao certo até onde essa tecnologia pode nos ajudar ou então ser a nossa ruína.

O fato é que cada vez mais ela está presente em nosso cotidiano, por exemplo, com o aumento do uso de ferramentas de IA com o ChatGPT. Com um uso maior, várias pessoas estão revelando coisas pessoas para essas ferramentas. No entanto, isso não é um hábito seguro de se ter.

De acordo com Mike Wooldridge, professor de IA na Universidade de Oxford, da Inglaterra, compartilhar informações privadas ou ter uma conversa franca com um chatbot é “extremamente imprudente”. Até porque, qualquer coisa que for dita a essa IA pode ser usada para treinar versões futuras da tecnologia.

Segredos para a IA

Esse assunto é tão importante e pertinente que ele preparou palestras que foram feitas no Royal Institution abordando esse tema. Nelas, Wooldridge analisou as “grandes questões enfrentadas pela pesquisa em IA e os mitos sobre como essa tecnologia inovadora realmente funciona”.

Entre os tópicos que ele abordou estavam: como uma máquina pode ser ensinada a traduzir de um idioma para outro, como funcionam os chatbots e se eles realmente serão como os humanos no futuro.

O professor disse em entrevista ao DailyMail que, por mais que os humanos tenham sido programados para procurar consciência na IA, isso foi um esforço inútil. Até porque, de acordo com ele, a tecnologia “não tem empatia e nem simpatia”. “A tecnologia é basicamente projetada para tentar dizer o que você quer ouvir – isso é literalmente tudo o que ela faz”, acrescentou.

Ainda na visão de Wooldridge, ter a IA como um amigo ou terapeuta e reclamar com ela a respeito do chefe, ou expressar opiniões políticas é uma coisa arriscada. “Você deve presumir que qualquer coisa que você digitar no ChatGPT será usado para alimentar versões futuras da tecnologia”, afirmou.

O último ponto levantado pelo especialista foi que, por conta da forma como os modelos de IA funcionam, é quase impossível recuperar os dados depois que eles estiverem no sistema.

Cuidados

Freepik

Além dos perigos de revelar segredos para um chatbot, as pessoas tem que tomar cuidado com os golpes que são aplicados usando a IA. Isso acontece porque os softwares de inteligência artificial podem ser empregados das mais variadas formas. Infelizmente, uma delas pode acabar facilitando o “trabalho” dos golpistas. Além disso, as formas com que eles podem ser feitos são bem variadas. Saiba quais são as mais comuns.

Usando imagem ou voz feita por IA

Um golpe bem comum é quando uma pessoa finge ser outra e entra em contato com um parente por WhatsApp contando uma situação de problema financeiro e pedindo dinheiro. E existem também as versões em que o criminoso finge um sequestro e pede um resgate.

Agora, com a inteligência artificial, esse golpe pode ser “melhorado”. Isso porque os criminosos podem usar o deep fake para simular a voz, ou até mesmo a imagem de um familiar ou ente querido. Isso faz com que a vítima fique ainda mais vulnerável e propensa a enviar o dinheiro pedido.

Instalando malware

Usando ChatGPT

Muito comentado hoje em dia, o ChatGPT pode ser uma ferramenta usada pelos criminosos para dar golpes. Até porque, é possível treiná-lo para que ele imite o estilo de escrever de uma pessoa, o que faz com que as mensagens fiquem mais críveis.

Se protegendo

Assim como qualquer outro golpe, é importante não só saber que ele existe, mas também formas de se proteger contra ele. Essas são algumas das coisas que podem ser feitas com relação aos golpes que usam inteligência artificial.

Combinar uma palavra de segurança

Conhecer os traços de linguagem da inteligência artificial

Mesmo sendo algo mais difícil, não é uma coisa impossível. Isso porque, as IAs generativas têm uns tipos de marcação de linguagem que podem ser percebidos por um olhar mais atento. Por exemplo, vários termos repetidos, linguagem extremamente simples e falhas na coesão entre as frases.

Confrontar as informações ditas

Nas conversas geradas por IA, informações falsas podem aparecer. E quando ela não sabe a resposta certa para alguma coisa que foi perguntada, ela geralmente cria respostas para preencher a lacuna. Justamente por isso é bom confrontar a “pessoa” digitando para ver se é ou não uma inteligência artificial e se se trata de um golpe.

Não confiar em áudios

Fonte: Época negóciosTecmundo

Imagens: Freepik


Leia mais

Somos um escritório de alta qualidade para prestação servicos de Inteligência para pessoa física e jurídica.

NOSSOS SERVIÇOS

Empresarial
Familiar
Localização de Pessoas
Contra espionagem
Patrimônio
Direito Criminal

CONTATO

Telefone

 (11) 95758-3135

Telefone

(33) 98885-7277

ONDE ESTAMOS

Edifício Copan

Avenida Ipiranga, 200, São Paulo/SP

Somos um escritório de alta qualidade para prestação servicos de Inteligência para pessoa física e jurídica.

ONDE ESTAMOS

CONTATO

Copyright 2022. ADDP  BRASIL CNPJ 29.224.018/0001-59 I E conhecereis a verdade, e a verdade vos libertará. (João 8:32)

Abrir bate-papo
Precisa de ajuda?
ADDP BRASIL
Olá!
Em que podemos ajudar?