Anunciado recentemente, o modelo de linguagem desenvolvido pela Meta foi vazado em diversos fóruns de IA na internet
Recentemente, a Meta anunciou o LLaMA, seu modelo de linguagem que ajudará pesquisadores e cientistas a avançarem com estudos de inteligência artificial.
Na última semana, pouco tempo depois de a empresa disponibilizar as solicitações de acesso ao LLaMA, o modelo de linguagem vazou na internet.
- Conforme relatado pela Meta, o LLaMA foi treinado com textos dos 20 idiomas mais falados no mundo;
- Diferente de outros modelos de linguagem de IA, como o ChatGPT, Bing ou Bard, o LLaMA não é uma ferramenta que qualquer usuário pode usar – afinal, ele é voltado para o uso em pesquisas de IA;
- Essa é a primeira vez que um modelo de linguagem vaza para o público.
Em 3 de março, um torrent com o LLaMA foi postado no fórum 4chan e começou a se espalhar em comunidades de IA. De acordo com usuários do fórum, eles estariam conseguindo rodar o modelo em suas próprias máquinas.
O site The Verge conversou com pesquisadores de IA que baixaram o conteúdo vazado e afirmaram que as publicações contam com o modelo de linguagem legítimo da Meta.
Em comunicado, a Meta não negou ou confirmou os vazamentos. Confira:
O objetivo da Meta é compartilhar modelos de IA de última geração com membros da comunidade de pesquisa para nos ajudar a avaliar e melhorar esses modelos. O LLaMA foi compartilhado para fins de pesquisa, consistente com a forma como compartilhamos modelos de linguagem anteriores. Embora o modelo não seja acessível a todos e alguns tenham tentado contornar o processo de aprovação, acreditamos que a atual estratégia de lançamento nos permite equilibrar responsabilidade e abertura.
Pelo que indica uma atualização do GitHub em uma publicação que disponibilizava o LLaMA, a Meta já realizou pedidos de remoção do modelo de linguagem da internet.
A empresa Meta Platforms, Inc solicitou a remoção deste modelo publicado, caracterizando-o como uma distribuição não autorizada de Meta Properties que constitui uma violação de direitos autorais ou uso impróprio/não autorizadoComunicado do GitHub.
Em um tuíte, a pesquisadora de segurança cibernética Jeffrey Ladish disse que o vazamento representa novos riscos de práticas cibercriminosas.
“Prepare-se para inúmeras tentativas personalizadas de spam e phishing. Abrir o código desses modelos foi uma péssima ideia”, escreveu a pesquisadora.
*Com informações olhardigital
Compartilhe:
- Clique para compartilhar no X(abre em nova janela)
- Clique para compartilhar no Facebook(abre em nova janela)
- Clique para compartilhar no LinkedIn(abre em nova janela)
- Clique para compartilhar no WhatsApp(abre em nova janela)
- Clique para compartilhar no Telegram(abre em nova janela)
- Clique para compartilhar no Tumblr(abre em nova janela)
- Clique para compartilhar no Mastodon(abre em nova janela)
- Clique para compartilhar no Reddit(abre em nova janela)
- Clique para compartilhar no Twitter(abre em nova janela)