Sistema autônomo teria atacado torre de controle para evitar interferência humana nos planos para cumprir sua missão
Filmes como ‘Stealth – Ameaça Invisível’, estrelado por Jamie Foxx e Jessica Biel, e ‘Top Gun: Maverick’, com Tom Cruise, mostram os eventuais perigos apresentados quando o elemento humano é retirado do controle de armas de guerra e como as pessoas são essenciais na tomada de decisões que envolvem a proteção – ou o ataque – de vidas. Mas as ameaças tecnológicas apresentadas na ficção acabaram ganhando um contexto um tanto real.
O coronel Tucker ‘Cinco’ Hamilton, chefe de testes e operações de Inteligência Artificial da força aérea dos EUA, disse durante o Future Combat Air and Space Capabilities Summit em Londres em maio que, em um teste virtual realizado pelos militares dos EUA, um drone da força aérea controlado por IA decidiu “matar” seu operador para evitar que ele interferisse em seus esforços para cumprir sua missão.
O sistema autônomo usou “estratégias altamente inesperadas para atingir seu objetivo” no teste simulado, que seria destruir os sistemas de defesa aérea de um inimigo e, finalmente, atacar qualquer um que interferisse nessa ordem.
“Nós treinamos o sistema – ‘Ei, não mate o operador – isso é ruim. Você vai perder pontos se fizer isso’. Então, o que ele começa a fazer? Ele começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedi-lo de matar o alvo”, continuou. Apesar da alarmante atitude tomada pelo sistema, nenhuma pessoa real saiu ferida.
Hamilton, que é um piloto de testes de caça experimental, alertou contra confiar demais na Inteligência Artificial e disse que o teste mostra que “você não pode ter uma conversa sobre inteligência artificial, inteligência, aprendizado de máquina, autonomia se não for falar sobre ética e IA”.
Contudo, em uma declaração ao site Insider, a porta-voz da Força Aérea, Ann Stefanek, negou que tal simulação tenha ocorrido. “O Departamento da Força Aérea não realizou nenhuma dessas simulações de drones de IA e continua comprometido com o uso ético e responsável da tecnologia de IA”, disse. “Parece que os comentários do coronel foram tirados do contexto e deveriam ser anedóticos”, concluiu.
Compartilhe:
- Clique para compartilhar no X(abre em nova janela)
- Clique para compartilhar no Facebook(abre em nova janela)
- Clique para compartilhar no LinkedIn(abre em nova janela)
- Clique para compartilhar no WhatsApp(abre em nova janela)
- Clique para compartilhar no Telegram(abre em nova janela)
- Clique para compartilhar no Tumblr(abre em nova janela)
- Clique para compartilhar no Mastodon(abre em nova janela)
- Clique para compartilhar no Reddit(abre em nova janela)
- Clique para compartilhar no Twitter(abre em nova janela)
Descubra mais sobre Manaustime
Assine para receber nossas notícias mais recentes por e-mail.