Yu Xian, fundador da empresa de segurança blockchain Slowmist, levantou alarmes sobre uma prenúncio crescente conhecida porquê intoxicação de código de IA.
Leste tipo de ataque envolve a injeção de código prejudicial nos dados de treinamento dos modelos de IA, o que pode simbolizar riscos para os usuários que dependem dessas ferramentas para tarefas técnicas.
O incidente
O problema ganhou atenção posteriormente um incidente preocupante envolvendo o ChatGPT da OpenAI. Em 21 de novembro, um mercador de criptografia chamado “r_cky0” relatou ter perdido US$ 2.500 em ativos digitais posteriormente buscar a ajuda do ChatGPT para gerar um bot para o gerador de memecoin Pump.fun fundamentado em Solana.
No entanto, o chatbot recomendou um site fraudulento da API Solana, que levou ao roubo das chaves privadas do usuário. A vítima observou que 30 minutos posteriormente o uso da API maliciosa, todos os ativos foram drenados para uma carteira vinculada ao golpe.
(Nota do Editor: ChatGPT parece ter recomendado a API depois de executar uma pesquisa usando o novo SearchGPT porquê uma seção de ‘fontes’ pode ser vista na conquista de tela. Portanto, não parece ser um caso de intoxicação de IA, mas uma lapso do IA para reconhecer links fraudulentos nos resultados de pesquisa.)
Uma investigação mais aprofundada revelou que leste endereço recebe consistentemente tokens roubados, reforçando as suspeitas de que pertence a um fraudador.
O fundador do Slowmist observou que o nome de domínio da API fraudulenta foi registrado há dois meses, sugerindo que o ataque foi premeditado. Xian afirmou ainda que o site carecia de teor detalhado, consistindo somente de documentos e repositórios de códigos.
Embora o intoxicação pareça deliberado, nenhuma evidência sugere que a OpenAI integrou propositadamente os dados maliciosos no treinamento do ChatGPT, com o resultado provavelmente vindo do SearchGPT.
Implicações
A empresa de segurança Blockchain Scam Sniffer observou que leste incidente ilustra porquê os golpistas poluem os dados de treinamento de IA com códigos criptográficos prejudiciais. A empresa disse que um usuário do GitHub, “solanaapisdev”, criou recentemente vários repositórios para manipular modelos de IA para gerar resultados fraudulentos nos últimos meses.
Ferramentas de IA porquê o ChatGPT, agora utilizadas por centenas de milhões de pessoas, enfrentam desafios crescentes à medida que os invasores encontram novas maneiras de explorá-las.
Xian alertou os usuários de criptografia sobre os riscos associados a grandes modelos de linguagem (LLMs), porquê o GPT. Ele enfatizou que, antes um risco teórico, o intoxicação por IA se materializou agora em uma prenúncio real. Assim, sem defesas mais robustas, incidentes porquê leste poderiam minar a crédito nas ferramentas baseadas em IA e expor os utilizadores a maiores perdas financeiras.
Mencionado neste cláusula