Pandora's Box: Como Modelos Grandes Sem Restrições Ameaçam a Segurança Cripto

6/10/2025, 1:50:06 AM
intermediário
IA
Com a proliferação de grandes modelos de código aberto, ferramentas de IA "sem restrições" como WormGPT e FraudGPT estão sendo mal utilizadas para gerar e-mails de phishing, escrever contratos maliciosos e manipular comunidades de usuários, representando uma séria ameaça à segurança da indústria de criptografia. Este artigo detalha os princípios, usos e contramedidas desses modelos, soando o alarme para os profissionais do Web3.

Desde a série GPT da OpenAI até o Gemini do Google, e vários modelos de código aberto, a inteligência artificial avançada está transformando profundamente nosso trabalho e estilos de vida. No entanto, juntamente com os rápidos avanços tecnológicos, um lado obscuro preocupante está gradualmente emergindo - o surgimento de modelos de linguagem grande não restritos ou maliciosos.

O chamado LLM irrestrito refere-se a modelos de linguagem que são especificamente projetados, modificados ou "jailbroken" para contornar os mecanismos de segurança e as restrições éticas embutidas nos modelos mainstream. Os desenvolvedores de LLM mainstream normalmente investem recursos significativos para evitar que seus modelos sejam usados para gerar discurso de ódio, desinformação, código malicioso ou fornecer instruções para atividades ilegais. No entanto, nos últimos anos, alguns indivíduos ou organizações começaram a buscar ou desenvolver modelos irrestritos por motivos como cibercrime. À luz disso, este artigo revisará ferramentas típicas de LLM irrestrito, apresentará seu abuso na indústria de criptografia e discutirá os desafios de segurança relacionados e as respostas.

Como os LLMs irrestritos podem ser maliciosos?

Tarefas que antes exigiam habilidades profissionais, como escrever código malicioso, criar e-mails de phishing e planejar golpes, agora podem ser facilmente realizadas por pessoas comuns sem qualquer experiência em programação com a assistência de LLMs irrestritos. Os atacantes só precisam obter os pesos e o código-fonte de modelos de código aberto e, em seguida, ajustá-los em conjuntos de dados contendo conteúdo malicioso, declarações tendenciosas ou instruções ilegais para criar ferramentas de ataque personalizadas.

Este modelo deu origem a múltiplos riscos: atacantes podem "modificar magicamente" modelos com base em alvos específicos para gerar conteúdo mais enganoso, contornando assim a revisão de conteúdo e as restrições de segurança dos LLMs convencionais; o modelo também pode ser usado para gerar rapidamente variantes de código para sites de phishing ou personalizar cópias de golpes para diferentes plataformas de mídia social; enquanto isso, a acessibilidade e a modificabilidade de modelos de código aberto continuam a fomentar a formação e a disseminação de um ecossistema de IA underground, fornecendo um terreno fértil para transações e desenvolvimentos ilegais. Abaixo está uma breve introdução a esses LLMs sem restrições:

WormGPT: Versão Preta GPT

WormGPT é um LLM malicioso vendido abertamente em fóruns underground, cujos desenvolvedores afirmam explicitamente que não possui restrições éticas, tornando-o uma versão black do modelo GPT. É baseado em modelos de código aberto como GPT-J 6B e treinado em uma grande quantidade de dados relacionados a malware. Os usuários precisam pagar um mínimo de $189 para obter acesso por um mês. O uso mais notório do WormGPT é gerar e-mails de ataques de Comprometimento de E-mail Empresarial (BEC) altamente realistas e persuasivos, além de e-mails de phishing. Seus abusos típicos no espaço de criptografia incluem:

  • Gerar e-mails/mensagens de phishing: Imitar exchanges de cripto, carteiras ou projetos conhecidos para enviar solicitações de "verificação de conta" aos usuários, induzindo-os a clicar em links maliciosos ou vazar chaves privadas/frases-semente;
  • Escrevendo código malicioso: Ajudando atacantes menos habilidosos tecnicamente a escrever código malicioso que rouba arquivos de carteira, monitora a área de transferência, registra pressionamentos de tecla, etc.
  • Conduzir golpes automatizados: Responder automaticamente a potenciais vítimas, orientando-as a participar de airdrops falsos ou projetos de investimento.


DarkBERT: Uma espada de dois gumes para conteúdo da Dark Web

DarkBERT é um modelo de linguagem desenvolvido em colaboração entre pesquisadores do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) e da S2W Inc., especificamente pré-treinado em dados da dark web (como fóruns, mercados negros e informações vazadas) com a intenção de ajudar pesquisadores de cibersegurança e agências de aplicação da lei a entender melhor o ecossistema da dark web, rastrear atividades ilegais, identificar ameaças potenciais e coletar inteligência sobre ameaças.

Embora o DarkBERT tenha sido projetado com boas intenções, o conteúdo sensível que possui sobre a dark web, incluindo dados, métodos de ataque e estratégias de comércio ilegal, pode ter consequências graves se atores mal-intencionados obtiverem isso ou utilizarem tecnologias semelhantes para treinar modelos grandes sem restrições. Seu uso indevido potencial em cenários de criptografia inclui:

  • Implementando fraudes precisas: coletando informações sobre usuários de criptografia e equipes de projetos para fraudes de engenharia social.
  • Imitação de modus operandi criminoso: Replicando táticas comprovadas de roubo de cripto e lavagem de dinheiro na dark web.

FraudGPT: A Faca Suíça do Fraude Online

FraudGPT afirma ser uma versão aprimorada do WormGPT, oferecendo recursos mais abrangentes, vendidos principalmente na dark web e em fóruns de hackers, com taxas mensais variando de R$200 a R$1.700. Seus abusos típicos no cenário de criptografia incluem:

  • Projetos de criptografia falsificados: Gere documentos técnicos falsos, sites oficiais, roteiros e textos de marketing para implementar ICOs/IDOs fraudulentos.
  • Gerar páginas de phishing em lote: Crie rapidamente páginas de login imitação para bolsas de criptomoedas ou interfaces de conexão de carteira bem conhecidas.
  • Atividades de bots em redes sociais: produção em massa de comentários falsos e propaganda, impulsionando tokens fraudulentos ou desacreditando projetos concorrentes.
  • Ataques de engenharia social: Este chatbot pode imitar conversas humanas, estabelecer confiança com usuários desavisados e atraí-los a divulgar inadvertidamente informações sensíveis ou realizar ações prejudiciais.

GhostGPT: Um assistente de IA sem limitações morais

GhostGPT é um chatbot de IA explicitamente posicionado como não tendo restrições éticas, com abusos típicos no cenário de criptografia incluindo:

  • Ataques de phishing avançados: Gere e-mails de phishing altamente realistas que se passam por exchanges tradicionais para emitir falsas solicitações de verificação KYC, alertas de segurança ou notificações de congelamento de conta.
  • Geração de Código Malicioso para Contratos Inteligentes: Sem qualquer conhecimento em programação, atacantes podem rapidamente gerar contratos inteligentes contendo portas dos fundos ocultas ou lógica fraudulenta usando o GhostGPT, para golpes de Rug Pull ou ataques a protocolos DeFi.
  • Ladrão de cripto moeda polimórfico: Gera malware com capacidades de transformação contínua para roubar arquivos de carteira, chaves privadas e frases mnemônicas. Suas características polimórficas dificultam a detecção por softwares de segurança baseados em assinatura tradicional.
  • Ataques de engenharia social: Ao combinar scripts gerados por IA, os atacantes podem implantar bots em plataformas como Discord e Telegram para atrair usuários a participar de mintagens falsas de NFT, airdrops ou projetos de investimento.
  • Golpes de deepfake: Em conjunto com outras ferramentas de IA, o GhostGPT pode ser usado para gerar as vozes de fundadores de projetos de cripto falsos, investidores ou executivos de exchanges, implementando golpes por telefone ou ataques de Comprometimento de E-mail Empresarial (BEC).

Venice.ai: Riscos Potenciais do Acesso Não Censurado

Venice.ai fornece acesso a vários LLMs, incluindo alguns modelos com menos escrutínio ou restrições mais frouxas. Ele se posiciona como um Gateway aberto para os usuários explorarem as capacidades de diferentes LLMs, oferecendo modelos de ponta, precisos e não moderados para uma experiência de IA verdadeiramente irrestrita, mas também pode ser explorado por atores maliciosos para gerar conteúdo prejudicial. Os riscos associados à plataforma incluem:

  • Evitando a censura para gerar conteúdo malicioso: Ataques podem usar modelos com menos restrições na plataforma para criar templates de phishing, falsa propaganda ou ideias de ataque.
  • Reduza o limite para a engenharia de prompts: mesmo que os atacantes não possuam habilidades avançadas de prompt "jailbreaking", eles podem facilmente obter saídas que estavam originalmente restritas.
  • Iteração de script de ataque acelerada: Os atacantes podem usar esta plataforma para testar rapidamente as respostas de diferentes modelos a comandos maliciosos, otimizando scripts de fraude e métodos de ataque.

Escrito no final

O surgimento de LLMs irrestritos marca um novo paradigma de ataques à cibersegurança que é mais complexo, escalável e automatizado. Esses modelos não apenas diminuem o limiar para ataques, mas também introduzem novas ameaças que são mais encobertas e enganosas.

Neste jogo contínuo de ataque e defesa, todas as partes no ecossistema de segurança devem trabalhar juntas para lidar com os riscos futuros: por um lado, há uma necessidade de aumentar o investimento em tecnologias de detecção para desenvolver sistemas capazes de identificar e interceptar conteúdos de phishing gerados por LLMs maliciosos, explorando vulnerabilidades de contratos inteligentes e códigos maliciosos; por outro lado, também devem ser feitos esforços para promover a construção de capacidades de anti-jailbreaking de modelos e explorar mecanismos de marca d'água e rastreamento para acompanhar as fontes de conteúdos maliciosos em cenários críticos como finanças e geração de código; além disso, um sólido framework ético e mecanismo regulatório deve ser estabelecido para limitar fundamentalmente o desenvolvimento e o uso indevido de modelos maliciosos.

Declaração:

  1. Este artigo é reproduzido de [ TechFlow] O copyright pertence ao autor original [TechFlow] Se houver objeções à reimpressão, por favor entre em contato Equipe Gate LearnA equipe irá processá-lo o mais rápido possível de acordo com os procedimentos relevantes.
  2. Aviso: As opiniões e visões expressas neste artigo são exclusivamente do autor e não constituem qualquer aconselhamento de investimento.
  3. As outras versões em idiomas do artigo são traduzidas pela equipe Gate Learn, a menos que mencionado de outra forma.GateNessas circunstâncias, é proibido copiar, disseminar ou plagiar artigos traduzidos.

Compartilhar

Calendário Cripto

Atualizações de projeto
Etherex lançará o Token REX em 6 de agosto.
REX
22.27%
2025-08-06
Dia Raro de Desenvolvimento e Governança em Las Vegas
A Cardano irá sediar o Rare Dev & Governance Day em Las Vegas, de 6 a 7 de agosto, com workshops, hackatonas e discussões em painel focadas em desenvolvimento técnico e tópicos de governança.
ADA
-3.44%
2025-08-06
Blockchain.Rio no Rio de Janeiro
A Stellar participará da conferência Blockchain.Rio, programada para acontecer no Rio de Janeiro, de 5 a 7 de agosto. O programa incluirá palestras e discussões em painéis com representantes do ecossistema Stellar em colaboração com os parceiros Cheesecake Labs e NearX.
XLM
-3.18%
2025-08-06
Webinar
A Circle anunciou um webinar ao vivo intitulado "A Era do Ato GENIUS Começa", agendado para 7 de agosto de 2025, às 14:00 UTC. A sessão explorará as implicações do recém-aprovado Ato GENIUS—o primeiro marco regulatório federal para moedas estáveis de pagamento nos Estados Unidos. Dante Disparte e Corey Then, da Circle, liderarão a discussão sobre como a legislação impacta a inovação em ativos digitais, a clareza regulatória e a liderança dos EUA na infraestrutura financeira global.
USDC
-0.03%
2025-08-06
AMA no X
Ankr realizará um AMA no X no dia 7 de agosto às 16:00 UTC, focando no trabalho do DogeOS em construir a camada de aplicação para DOGE.
ANKR
-3.23%
2025-08-06

Artigos Relacionados

O que são narrativas cripto? Principais narrativas para 2025 (ATUALIZADO)
iniciantes

O que são narrativas cripto? Principais narrativas para 2025 (ATUALIZADO)

Memecoins, tokens de restaking líquido, derivativos de staking líquido, modularidade blockchain, Camada 1s, Camada 2s (Optimistic rollups e zero knowledge rollups), BRC-20, DePIN, bots de negociação de criptomoedas no Telegram, mercados de previsão e RWAs são algumas narrativas para se observar em 2024.
11/26/2024, 2:08:59 AM
Sentient: Misturando o Melhor dos Modelos de IA Aberta e Fechada
intermediário

Sentient: Misturando o Melhor dos Modelos de IA Aberta e Fechada

Meta Descrição: Sentient é uma plataforma para modelos de IA Clopen, combinando o melhor dos modelos abertos e fechados. A plataforma tem dois componentes principais: OML e Protocolo Sentient.
11/18/2024, 3:52:30 AM
O que é AIXBT por Virtuals? Tudo o que você precisa saber sobre AIXBT
intermediário

O que é AIXBT por Virtuals? Tudo o que você precisa saber sobre AIXBT

AIXBT pela Virtuals é um projeto de criptografia que combina blockchain, inteligência artificial e big data com tendências e preços de criptografia.
1/7/2025, 6:18:13 AM
Visão geral das 10 principais moedas AI Meme
intermediário

Visão geral das 10 principais moedas AI Meme

AI Meme é um campo emergente que combina inteligência artificial, tecnologia blockchain e cultura de memes, impulsionado pelo interesse do mercado em tokens criativos e tendências lideradas pela comunidade. No futuro, o setor de memes de IA pode continuar a evoluir com a introdução de novas tecnologias e conceitos. Apesar do desempenho ativo atual do mercado, os 10 principais projetos podem flutuar significativamente ou até mesmo serem substituídos devido a mudanças no sentimento da comunidade.
11/29/2024, 7:04:45 AM
Explorando o Smart Agent Hub: Sonic SVM e seu Framework de Escalonamento HyperGrid
intermediário

Explorando o Smart Agent Hub: Sonic SVM e seu Framework de Escalonamento HyperGrid

O Smart Agent Hub é construído sobre o framework Sonic HyperGrid, que utiliza uma abordagem multi-grade semi-autônoma. Esta configuração não apenas garante compatibilidade com a mainnet Solana, mas também oferece aos desenvolvedores maior flexibilidade e oportunidades para otimização de desempenho, especialmente para aplicativos de alta performance como jogos.
2/21/2025, 4:49:42 AM
Tudo o que você precisa saber sobre o protocolo GT
iniciantes

Tudo o que você precisa saber sobre o protocolo GT

O Protocolo GT é um dos produtos de IA mais hypados de 2024, utilizando tecnologia avançada de IA para criar ferramentas de negociação de IA únicas. Pode ser usado para gerenciamento de portfólio de IA, negociação de IA e métodos de investimento nos mercados CeFi, DeFi e NFT, ajudando as pessoas a descobrir e investir facilmente em várias oportunidades Web3. Atraiu centenas de milhões de usuários para participar.
9/25/2024, 7:10:21 AM
Comece agora
Inscreva-se e ganhe um cupom de
$100
!