Força Aérea dos EUA quer US$ 5,8 bilhões para construir quase 2.000 aeronaves Valkyrie movidas a IA
- A USAF solicitou US$ 5,8 bilhões em seu orçamento para criar aeronaves XQ-58A Valkyrie movidas por IA
- As aeronaves autônomas são ideais para completar missões suicidas e proteger os pilotos, afirma a Força Aérea
- Os defensores dos direitos humanos dizem que deixar a tecnologia tirar vidas ultrapassa uma fronteira moral
A Força Aérea dos EUA procura um subsídio orçamental multibilionário para construir entre 1.000 e 2.000 aeronaves não tripuladas comandadas por pilotos de IA.
As aeronaves XQ-58A Valkyrie foram projetadas para servir como ala robótica (Loyal Wingman) para aviadores humanos, fornecendo cobertura e manobras em cenários onde um piloto de carne e osso pode ter dificuldades, informou o The New York Times – e são ideais para missões suicidas nas quais seria improvável que um humano retornasse.
Ainda este ano, a aeronave será testada numa simulação onde criará a sua própria estratégia para perseguir e destruir um alvo no Golfo do México, informou o Times.
O Insider relatou anteriormente que este modelo Valkyrie pode voar a 550 milhas por hora. Sua altitude operacional é de 45.000 pés, com alcance de 3.000 milhas náuticas. O antigo Valkyrie, o bombardeiro XB-70, que voou pela primeira vez em 1964, exigia pilotos na cabine e apenas algumas aeronaves foram produzidas.
A estimativa orçamentária, que o Congresso ainda não aprovou, lista US$ 5,8 bilhões em despesas ao longo de cinco anos para construir os veículos. Isso ocorre após vários anos de voos de teste pela Força Aérea, nos quais o veículo foi usado como um datalink para F-22, F-35 e o programa Skyborg da Força Aérea, que é um sistema habilitado para inteligência artificial para controlar aeronaves não tripuladas como o Valkyrie .
O Times informou que cada Valkyrie custará entre US$ 3 milhões e US$ 25 milhões – muito menos do que um jato piloto tripulado.
Os representantes da Força Aérea e do Departamento de Defesa não responderam imediatamente ao pedido de comentários do Insider.
Embora o programa “Next Generation of Air Dominance” da Força Aérea tenha obtido amplo apoio militar, os defensores dos direitos humanos estão preocupados com o fato de que as máquinas de guerra não tripuladas abram o caminho para um futuro distópico ao estilo do “Exterminador do Futuro”.
“Você está ultrapassando um limite moral ao terceirizar a matança para máquinas – ao permitir que sensores de computador, em vez de humanos, tirem vidas humanas”, disse Mary Wareham, diretora de defesa da divisão de armas da Human Rights Watch, uma defensora de limites internacionais para autonomia de armas letais, disse ao Times.
Outros oponentes das armas de IA, como o Instituto sem fins lucrativos Future of Life, chamam esses avanços de “slaughterbots” porque a tomada de decisão algorítmica em armas permite um combate mais rápido que pode aumentar as ameaças de rápida escalada de conflitos e imprevisibilidade – bem como o risco de criar armas de destruição em massa.
O secretário-geral das Nações Unidas, António Guterres, disse já em 2019 que “máquinas com poder e discrição para tirar vidas sem envolvimento humano são politicamente inaceitáveis, moralmente repugnantes e deveriam ser proibidas pelo direito internacional”.
FONTE: Business Insider
Se for dos Estados Unidos ou Israel pode. Agora se for russo, chinês ou iraniano é uma ameaça ao ocidente.
Mas parece lógico isso, não?
No caso pau que da em chico não da em Francisco.
Só que o Chico são países democráticos e o Francisco, Ditaturas.
Evidente.
Natural, Nobre Leitor!
Tudo que os EUA lançam de novo, Rússia, China e afins dizem que é ameaça à eles. Tudo que a China ou Rússia lança, os EUA e OTAN dizem que é ameaça à eles. Tudo que a Índia fazer, o Paquistão diz que é ameaça e vice versa. Bem vindo ao mundo real colega.
A questão não é os governos por meios oficiais se manifestarem e sim a conspiração da imprensa “livre” do ocidente tomar sempre e incondicionalmente a posição da OTAN/EUA.
Vc quis dizer, uma ameaça ao países democráticos.
Meu amigo, na mão de louco um cabo de vassoura é uma arma letal. Países fechados como os q vc citou, são esses loucos!o
Uma dúvida, vendo a tal celeuma dos direitos humanos, essa IA será totalmente autônoma? Ou vai ter, mesmo que mínima uma interferência humana? Acho que essa parada de “Exterminador do Futuro” é um pouco de exagero, ou estou errado? Os americanos já estão produzindo aeronaves no nível de um Rev-9? 😂
Eu ainda estou na parte de tentar entender pq é que humanos precisam matar humanos !
(Como se fizesse alguma diferenca para as vitimas)
Os que têm fé dirão que é por conta do pecado original.
Já a ciência dirá que o homem, enquanto ser biológico, é regido pela lei natural da sobrevivência do mais apto e a nível individual, pela sentimento de autopreservação.
Enquanto fruto do desenvolvimento natural o homem sempre se comportará obedecendo às leis naturais.
Talvez um homem evoluído artificialmente (um transhumano) ou um robô dotado de IA , possa se livrar desse estigma natural e aí, enfim, haverá paz na Terra.
Como pode um criador (o ser humano) tão imperfeito à ponto de, em um mundo abarrotado de misérias e desgraças, investir não em seu saneamento, mas, pelo contrário, fomentar outras mais? Pelo contrário, cria algo (I.A) que, em vez de produzir bons feitos, aumenta a eficiência de dor, lágrimas e extermínio humano? A não ser que você considere isso bom… Prezado, acho que as pessoas chegam à um ponto de fanatismo que apóiam até as ações do (d)iabo. Mas, é claro, desde que ele seja anglo-saxão e o seu tridente tenha sido produzido com tecnologia de ponta pelas forças armadas… Read more »
?????
Boiei!!!
Charle,
A IA é uma tecnologia dual, igual a faca que você tem na sua cozinha que serve tanto para cortar uma laranja quanto para matar seu desafeto ideológico.
Quem irá controlar os efeitos da IA são os humanos que a operam.
Como citei anteriormente, a IA pode inclusive ser a solução para os conflitos na Terra. Vai depender dos humanos.
Quanto à sua indignação com minha predileção pelos “anglo-saxões” (???) pode aí colocar as características dos russos, chineses e norte-coreanos que tanto lhe agradam e que os faz diferentes e superior moralmente aqueles.
No aguardo.
Prezado, pelo que está exposto na matéria o uso da I.A. será para fins bélicos. Aliás, basicamente toda e qualquer nova tecnologia desenvolvida está sendo usada para tais fins. Direta ou indiretamente.
Em que parte do texto que escrevi está escrito que os povos citados por você me agradam? Se você me mostrar, eu admitirei.
Moralidade nesse mundo? Dizendo sobretudo sobre as superpotências, é algo difícil de acreditar que exista. Seja ela qual for.
Prezado,
“Prezado, acho que as pessoas chegam à um ponto de fanatismo que apóiam até as ações do (d)iabo. Mas, é claro, desde que ele seja anglo-saxão e o seu tridente tenha sido produzido com tecnologia de ponta pelas forças armadas dos EUA.”
Essa sua declaração me fez acreditar que você se agradava mais dos povos que em tese são antagônicos aos “anglo-saxões” .
Equívoco de minha parte.
Não me agradar de povos anglo-saxões (ou de suas atitudes perante o mundo) não significa que eu goste ou desgote de povos que não o sejam (anglo-saxões).
Daí a minha interrogativa “Moralidade nesse mundo?” em sentido genérico.
Recursos… se um país não explodir outro ele implode.
Tem isso aqui também:
Teremos de nos preocupar com os direitos dos robôs?
Isso aí é uma agressão?
Não remunerar robôs pode ser considerado trabalho escravo?
Os robôs poderão nos processar?
Haverá tratamento psicológico aos robôs?
Robôs poderão ser presos? Poderão ser desligadis?
https://youtu.be/dsk0AfC8kac?si=1OF5ZY7H2Y9N_UhG
Meu caro, aí o evento SKYNET poderia se tornar realidade………….
Abraços
Se hoje em dia até “direto dos manos” existe, pros robôs também vai ter, pode ter certeza…😂
E pode ter certeza que vão ser os famosos defensores de minorias que vão, mais uma vez, ser os que levantarão essa bandeira. Assim como lutam pelos direitos dos manos.
É perigoso. Demais. Só que mais perigoso ainda é deixar os potenciais inimigos desenvolverem a tecnologia e ficar apenas esperando.
“O secretário-geral das Nações Unidas, António Guterres, disse já em 2019 que “máquinas com poder e discrição para tirar vidas sem envolvimento humano são politicamente inaceitáveis, moralmente repugnantes e deveriam ser proibidas pelo direito internacional”.”
Esse tipo de discussão é, basicamente, inútil. Depois que uma tecnologia é inventada, ela não pode simplesmente ser “desinventada”, ou fingirmos que essa tecnologia não existe.
E mesmo que “alguem” queira não utilizar essa tecnologia, NADA garante que seus adversários não vão utilizá-la.
Já estão de posse dessa tecnologia, agora a escolha é deles, ou colocam em prática ou posteriormente outros países o farão.
A discussão se a IA para fins militares é ética ou não só acontece no detestável Ocidente.
Na China , CN , Rússia… ela é implementada e todo mundo tem mais é que achar bom e ficar de boca fechada.
As três leis da robótica, de Isaac Asimov
Boa noite,
Aí, a IA se revolta e age como a SKYNET……..
Abraços
Na teoria é louvável mas no mundo real, vão obedecer quem programou e executaram com maestria até o outro lado os superar.
*executar
Asimov era um genio….livros da decada de 40….um visionario….
O furo das 3 leis da robótica de Asimov é que elas eram impressas deliberadamente pelos humanos no cérebro positrônico dos robôs.
O problema seriam aquelas IAs que não tiveram tais leis implantadas deliberadamente pelos humanos.
Nada disso vai ser programado na AI desses sistemas até porque o material sendo bélico, o 1o item já estaria violado.
Isso é obra de ficção. Por mais empático que Asimov fosse, a humanidade não é. Cada nação vai usar os meios que dispõem para garantir sua existência e consolidar o poder sobre outras.
Já passou da hora, máquinas tomam decisões melhor que nós…governo se mete nisso só atrasa..manda ver EUA..
Nós sempre tomaremos as decisões pelas maquinas. Uma maquina programará outra maquina apenas se assim deixarmos. Maquinas sempre precisarão de humanos.
Concordo com a parte humanitária. Os chineses é que não concordam. Aí que está o problema. Agora, se não se chegou a um acordo nem sobre bombas cluster, me digam vocês se alguém ainda acredita que esse caminho não será explorado pelos dois lados.
Efetivamente. Em alguns anos, TODAS as potências militares do mundo estarão produzindo armas com IA, aliás, as que já não estão produzindo, devem estar no fim do caminho para isso.
Os “cachorros” robôs, munições vagantes, e outras máquinas já em uso já são capazes de matar sem interferência humana. Pra falar a verdade, um garoto com recursos relativamente simples já é capaz de criar um sistema autônomo que faça isso. Eu gostaria que fosse diferente? Certamente! É? Não. O que podemos fazer a respeito? Essa sim é a questão sobre a qual vale se debruçar.
Olha o nome do programa da Força Aérea deles: SKYBORG.
SKY = Skynet (Exterminador do Futuro)
BORG = Borgs (Star Trek – NG)
Não pode ser coincidência.
Bosa noiute, provavelmente não é…..
Abraços
Sim, ainda mais depois que o secretário austríaco para assuntos otanatórios (ou cheerleader da otan, como alguém definiu por aí) defendeu publicamente dividir o brasil em vários países menores.
Só de curiosidade, esse tipo de aeronave é considerado “attritable”, que no jargão militar americano significa que não é descartável (kamikaze) mas que sua perda eventual pode ser um preço barato a se pagar tendo em vista ter atingido objetivos de alto valor.
Para ser “attritable” a aeronave, além de não ser tripulada (obviamente) deve ser relativamente barata , existir em grande quantidade e fácil de ser reposta.
Isso vai permitir missões mais arriscadas no território em disputa já que a manned plataforma fica menos exposta. Perder alguns Valkyries pega menos mau do que ver um caça stealth com um piloto ser derrubada pelo inimigo como foi no caso do F117 na Servia… aliás esse um dos motivos pro Su57 ter sido usado mais discretamente na guerra na Ucrânia, ter um exemplar derrubado seria pior pra propaganda russa que perder tanques ou helicópteros de ataque.
No caso do Su-57 também tem o agravante de que perder uma unidade é equivalente a perder cerca de 10% de toda a frota.
Olhando um pouco para a frente, com a disseminação da IA, o que dá para antecipar é que voltaremos a ver conflitos com grandes massas de combatentes, como se via na Segunda Guerra e que estava cada vez mais em desuso… Se estamos falando em equipamento barato, em grande quantidade e com fácil reposição, estaremos num cenário onde a quantidade será mais interessante que a qualidade. O que tornará a guerra ainda mais perigosa e destrutiva, já que a perda de equipamento será um mero detalhe. E se levarmos em consideração que a duas principais potência do mundo hoje, Estados… Read more »
Sim, o gap entre esses países e outros que não investirem nessa tecnologia (como o Brasil) vai só aumentar. Acho que o impacto no campo de batalha vai ser o mais importante desde que a tecnologia stealth estreou na 1a guerra do golfo onde se viu o enorme gap entre EUA e Iraque.
Creio que no atual momento brasileiro nossos reais aliados estão mais para leste e eles também estão desenvolvendo essa mesma tecnologia e com certeza nos ajudarão quando os do norte vierem aqui pegar a Amazônia. Fique tranquilo.
Achar que um mundo bipolar ou multipolar é mais justo que um unipolar é uma forma ingênua de entender a realidade.
A política do galinheiro continuará a ser norma e se criarão blocos que terão países orbitando os países centrais.
Um mundo multipolar poderia trazer um maior nível de justiça se houvessem órgãos internacionais com força para aplicá-la mas como temos visto a ONU é uma comédia , não sendo capaz sequer de impedir que um país invada outro com objetivo de anexação territorial e implemente uma estratégia de terra arrasada em pleno Século XXI.
Multiplicador de força e “descartável”, uma frota desses trabalhando próximos de caças de 5a e 6a geração vai aumentar ainda mais o domínio aéreo americano.
O governo federal ter cortado verbas para o programa UCAV da Embraer (que anunciaram em 2021) e não ter incluído no PAC3 foi um erro. Daqui há 10 anos ao invés de exportarmos um concorrente ao Valkyrie ou Ghost Bat (Boeing), vamos estar discutindo aquisição de um lote com ToT.
Só uma correção, daqui há 10 anos ainda vamos estar discutindo um novo lote de gripens, 5 geração e caças não tripulados é mais pra frente.
Me soa estranho ‘aeronaves movidas a IA’ – me dá a impressão que a IA seria algum tipo de combustível, de fonte de energia, como gasolina ou energia elétrica, não seria melhor simplesmente comandadas ou controladas por IA?
Bem mais correto.
E aquele papo de que o caça 6° gen deles teria drones suporte movidos a IA ainda procede ou já foi de ralo?
Parece que todas as plataformas de 6a em andamento NGAD, FAXX, franco alemã e a britânica incluem como requisitos a capacidade de operar drones autônomos funcionando como uma mother ship, o avião mesmo também terá IA o que irá permitir que as missões sejam mais autônomas com o piloto muitas vezes apenas supervisionando, mas não acho que existe planos para a plataforma de 6a geração em si ser unmanned.
Hove um estudo preliminar para desenvolver uma plataforma autônoma do B21 Raider mas foi descartado porque o custo de uma aeronave maior como um bombardeiro pouco diminuiria eliminando os pilotos.
Existem questões diferentes aí a considerar. Em um caça, retirar o piloto do cockpit economiza em peso que pode se traduzir em combustível ou carga útil. Além disso, permite que o limite de carga G deixe de ser baseado no piloto e passe a ser o da estrutura do vetor. Desta forma, poderemos ver um patamar completamente novo no que do respeito a manobrabilidade.
Sim, a força G maxima dependeria apenas da estrutura do avião e não mais do componente humano.
Até onde eu li, o NGAD não teria uma versão unmanned prevista até o momento.
Vamos ver o que a Lockheed apronta. A Northrop já pulou fora do NGAD, agora está entre Lockheed e Boeing.
https://www.thedrive.com/the-war-zone/skunk-works-cryptically-teases-ngad-like-aircraft-silhouette
Valkyrie… Poderiam economizar nas piadas e memes e chamar ele logo de Terminator.
Sabem nem brincar, precisa apelar assim … 2000 unidades.
Fato interessante é que o Valkyrie não necessita de qualquer tipo de pista para decolar ou pousar, pode ser lançado a partir de pequenas plataformas com auxílio de foguetes instalandos na carenagem. Isso torna possível atuar dentro das bolhas A2/AD de um adversário capaz e temível como a RPC e nos mares do sudeste asiático. A independência das pistas é extremamente atraente para atuar em contextos operacionais onde a infraestrutura tradicional pode ser destruída ou indisponível, podendo operar até de pequenas ilhas remotas sem grande dificuldade.
Isso me faz pensar se realmente são os vermelhinhos a grande ameaça à humanidade.
A influência yanke é mantida no porrete…
A grande ameaça à humanidade é o próprio homem. Não importa se na China ou nos EUA jamais seremos capazes de criar algo tão cruel quanto nós mesmos.
Acredito mais na IA se apiedar dos humanos e deter um ataque iminente do que um homem no comanfo fazê-lo.
É o futuro! Gostem os saudosistas ou não…
Olá Brasil, Os EUA também têm outro projeto distinto (mas complementar) ao programa NGDA com o “Collaborative Combat Aircraft/XQ-58A Valkyrie”. Isto foi apresentado em Washington, em 28 de agosto, por Kathleen Hicks, Vice-Secretária de Defesa, na conferência da Associação Industrial de Defesa Nacional. Este é o projeto “Replicator Initiative”. Este projecto é anunciado como uma das fortes respostas destinadas a contrariar o poderio militar da China. Entre os objectivos para o conseguir, os EUA pretendem, portanto, produzir muitos sistemas autónomos, todos consumíveis (?) suficientemente pequenos, inteligentes e acima de tudo baratos. Resumindo, há muito trabalho! porque pretendem equipar todas as… Read more »
HS mas uma anedota que normalmente não deveria iniciar questionamentos éticos e morais haha.
“A Coreia do Norte lançou um programa para converter seus antigos caças em drones”
https://www.opex360.com/2023/08/26/la-coree-du-nord-avoir-lance-un-programme-pour-convertir-ses-vieux-avions-de-combat-en-drones/
La Corée du Nord aurait lancé un programme pour convertir ses vieux avions de combat en drones
Eu só quero ver se esses drones perder o controle e for rateado pelo inimigo e se voltar contra ou seja os rakers inimigo invadir o sistema de controle e começar a atacar o próprio dono ,?imagina 2.000 valkiries ser controlado pelo inimigo, igualmente o filme exterminador do futuro, e o pior se tiver ogivas nucleares,aí já era o país e o próprio mundo,porque os americanos se acham invenciveis ou indestrutíveis..
Os defensores dos direitos humanos só reclamam se é dos EUA, se fosse da China, estariam aplaudindo, dizendo que poupa a vida de um piloto!
Os americanos pensam que só eles é que tem hackers, os outros países não tem?concerteza vão invadir o sistema ,aí vai provar o próprio veneno,eles pensam que são infalíveis mas não é. E vai gastar a toa esse dinheiro ,em vez de cuidar do planeta e da fome que assola o mundo,em vez de cuidar das catástrofes no mundo inteiro, em vez de cuidar da poluição que tá atingindo o planeta todo,aí prefere construir máquinas e armas de destruição em massa pra destruir o ser humano ,a que ponto chegamos,ainda tem gente que incentiva isso,o planeta tá ficando sem oxigênio,… Read more »
Os iranianos conseguiram tomar o controle há uns anos de um drone RQ-170 e o fizeram pousar no Irã. A diferença é que aquele drone não tinha IA, tinha sido programado para executar uma missão e estava em contínuo contato com seus operadores a milhares de milhas de distância. IA vai ser diferente, vai ser programado para atingir certo objetivo e o sistema vai decidir como melhor executar a missão. O input de um piloto não vai existir bem como a comunicação será reduzida, a chance de tomar o controle provavelmente seria interpretada como ameaça e talvez até desencadeie um… Read more »
1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei.3ª Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.Mais tarde Asimov acrescentou a “Lei Zero”, acima de todas as outras: um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.