Skip to content Skip to footer

O Golpe da Inteligência Artificial

Deepfake

Atendimento-On_line

Golpe e Fraudes – Com uso de voz e imagem.

Com o avanço da tecnologia, a inteligência artificial (IA) tem se tornado uma ferramenta poderosa em diversas áreas, inclusive, para aplicação de fraudes e golpes bancários.

O termo “deepfake” é uma combinação de “deep learning” (aprendizado profundo) e “fake” (falso). Trata-se de uma técnica de síntese de imagens humanas baseada em inteligência artificial, podendo ser criado um “personagem” falso. E, dependendo do nível de avança da tecnologia utilizada pelo falsário é possível que o “personagem” interaja realizando diálogos e/ou vídeos, com isso, golpes antigos, especialmente do “falso sequestro”, “solicitação de valores” e abertura de contas falsas podem retornar.

  • Alterar Rosto em Vídeos: A tecnologia pode sobrepor o rosto de uma pessoa sobre o corpo de outra em um vídeo, criando a ilusão de que a pessoa está dizendo ou fazendo algo que, na verdade, não fez.
  • Imitar Vozes: Deepfakes também podem replicar a voz de uma pessoa, permitindo que golpistas criem áudios onde a vítima aparentemente fala algo que nunca disse.
  • União de ambos: há relatos de casos em que, é criado um “personagem”, que utilizam das imagens reais das vítimas e do seu padrão de voz, e com o personagem falso “cria vida”.

O caso é notório na mídia, há relatos de vários artistas, apresentadores e outras pessoas publicas que são vítimas da utilização de seus dados e com isso personagem são criados para venda de produtos, supostos investimentos e tantas outras infinidades de situações, com objetivo final de proporcionar ao falsário o benefício econômico decorrente da utilização da tecnologia.

  • Extorsão e Chantagem: Golpistas podem criar vídeos ou áudios falsos de uma pessoa envolvida em situações comprometedores e ameaçar divulgá-los a menos que um valor em dinheiro seja pago, situação utilizada no que foi denominado de “Golpe do Nudes”.
  • Fraudes Financeiras: Imitando a voz de executivos de empresas, golpistas podem instruir funcionários a transferir grandes somas de dinheiro para contas fraudulentas. É um golpe mais complexo, e necessita de tecnologias apuradas, existindo registros de situações envolvendo valores expressivos
  • Engano de Familiares: Vídeos ou áudios falsos podem ser usados para enganar familiares, fazendo-os acreditar que um ente querido está em perigo e precisando de dinheiro e ou sendo vítima do falso sequestro. Assim, o uso da deepfakes pode refletir no aumento de fraudes que já estavam “adormecidas”
  • Verificação de Fontes: Sempre verifique a autenticidade de informações recebidas por vídeo ou áudio, especialmente se solicitarem ações urgentes ou incomuns, envolver pessoas famosas, especialmente, quando há venda de produtos, possibilidades de rendimentos ou até mesmo a exteriorização de opiniões políticas extremistas.
  • Desconfie de Pedidos Urgentes: Tenha cautela com solicitações urgentes de transferência de dinheiro ou informações sensíveis, especialmente às relacionadas ao pagamento de valores para um suposto familiar, especialmente, quando a conta de depósito não possui nenhuma relação com a pessoa.
  • Crie senhas familiares: O avanço de tecnologia é fato, porém, ao menos por ora, as deepfakes, não possui a capacidade humana de processar informações pessoais. Assim, a criação de senhas familiares para existir realmente a confirmação para que o interlocutor seja realmente alguém da família, por exemplo, é crucial.

Exemplificando: um grupo familiar pode-se criar como “senha” o nome de algum animal, local, nome de um ente querido falecido, preferência alimentar, etc…, é importante que seja uma “senha” incomum e que exista realmente a necessidade de conhecimentos particulares do nicho familiar. Uma sequência de senhas, com perguntas-chave criadas pela família, podem ser sempre útil.

Não Pague o Resgate e/ou Faça Transferências: Se você for vítima de extorsão com deepfake, não ceda à pressão dos golpistas. Pagar o resgate pode não garantir a resolução do problema e pode incentivá-los a continuar aplicando golpes. É aconselhável deligar a ligação, procurar ajuda familiar ou da própria polícia, preparada para lidar com tais situações.

  • Registre um Boletim de Ocorrência: registre o boletim de ocorrência, salvo casos mais complexos, normalmente, o boletim de ocorrência pode ser feito pela internet.
  • Arquive as evidências como: e-mails, links, mensagens, gravações, comprovantes de transferências, números de telefones e tudo mais que pode ser úteis para a investigação.
  • Notifique Instituições Financeiras: se o golpe envolver transações financeiras, notifique imediatamente seu banco ou instituição financeira para que medidas possam ser tomadas para proteger suas contas.

A utilização da tecnologia da deepfake pode resultar não apenas em prejuízos financeiros, mas a honra e a imagem da vítima, com reflexos em diversas possibilidades.

Assim, considerando as inúmeras variáveis, o aconselhável é que a vítima procure o advogado de sua confiança para obter orientação legal específica para o seu caso.

A responsabilidade dos bancos em casos de fraudes, incluindo aquelas que utilizam deepfakes, está fundamentada no Código de Defesa do Consumidor (CDC) e no Código Civil Brasileiro.

Assim, segundo o CDC, os bancos são considerados fornecedores de serviços e, como tal, têm responsabilidade objetiva pelos danos causados aos consumidores em decorrência de falhas na prestação de seus serviços. O artigo 14 do CDC estabelece que:

“Art. 14. O fornecedor de serviços responde, independentemente da existência de culpa, pela reparação dos danos causados aos consumidores por defeitos relativos à prestação dos serviços, bem como por informações insuficientes ou inadequadas sobre sua fruição e riscos.”

Já, o Código Civil Brasileiro, em seu artigo 927, também estabelece a responsabilidade civil pelos danos causados:

“Art. 927. Aquele que, por ato ilícito (arts. 186 e 187), causar dano a outrem, fica obrigado a repará-lo.”

E, como é de conhecimento, os bancos devem adotar medidas de segurança adequadas para proteger os dados e as transações de seus clientes.

A negligência na implementação de tais medidas pode resultar em responsabilidade pelos danos causados por fraudes.

Desse modo, como em outras fraudes e golpe, casos envolvendo a deepfakes, também, podem refletir em responsabilidade do banco, tudo dependerá da análise criteriosa do caso concreto, que deverá ser analisada pelo profissional de confiança da vítima.

Considerando que muitas vezes os processos relacionados ao tema envolvem questões de imagem, a tecnologia é relativamente recente na aplicação de golpes e fraudes, pesquisas jurisprudências são mais complexas, sendo mais comum verificar em decisões de primeira instância, tal abordagem, vejamos:

1001145-25.2023.8.26.0081: “….Todavia, salientou que tomou conhecimento que um hacker contatou diversos seguidores/amigos do perfil, utilizando-se de uma nova tecnologia, conhecida como “deepfake”, voltada à criminalidade, manipulando um vídeo com a imagem e voz da autora. Informou que os invasores utilizaram a rede social da autora para convencer seus seguires acerca de um investimento no qual “ela” estava obtendo um excelente retorno financeiro, ocasião em que diversos amigos/seguidores caíram no golpe, gerando prejuízos. … (gn)

1000366-58.2024.8.26.0009: “….No mérito, os pedidos formulados são parcialmente procedentes. Trata-se de ação visando a condenação do requerido na obrigação de fazer, consistente na remoção do perfil e do vídeo indevido da rede social, envolvendo o autor, em decorrência do chamado “deepfake”, sob pena de multa diária. Primeiramente, é mister consignar que o vínculo contratual estabelecido entre as partes traz, em si, típica relação de consumo, sendo aplicáveis as disposições do Código de Defesa do Consumidor, notadamente no que toca aos prazos prescricionais, aos Princípios da vulnerabilidade, à hipossuficiência do consumidor, inversão do ônus da prova e responsabilidade objetiva por danos relativos a bens ou serviços fornecidos. No caso em apreço, restou incontroverso o uso indevido da imagem do autor, mediante montagem, via inteligência artificial, conhecida pela expressão “deepfake”, conforme links indicados na inicial….”(gn)

A inteligência artificial tem potencial para revolucionar nossas vidas e é uma realidade sem volta.

Porém, a inteligência artificial em conjuntura com o uso de diversas tecnologias, como o uso de voz e imagem, já permite a criação de “personagens” irreais, como se fossem “clones” e com isso o limite da sua utilização para prática de atos ilícitos, nos mais diversos ramos do Direito, é uma provável certeza, por conseguinte, tudo caminha para que o universo de golpes e fraudes façam uso de tais tecnologias, objetivando sempre a obtenção de vantagem patrimonial, portanto, é importante a prudência e a cautela, posto que, a tecnologia atual é benéfica, se utilizado por pessoas de bem, mas extremamente maléfica, se utilizada com outra finalidade.

Por Alexandre Berthe Pinto
A reprodução do conteúdo total ou parcial é autorizada, desde que citada a fonte.

author avatar
Alexandre Berthe Pinto
plugins premium WordPress