Guerra d'algoritmes
Tecnologia

Guerra d'algoritmes

Quan es tracta de l'ús de la intel·ligència artificial a l'exèrcit, de seguida es desperta el malson de la ciència-ficció, una IA rebel i mortal que s'aixeca contra la humanitat per destruir-la. Malauradament, els temors dels militars i dels líders que "l'enemic ens atraparà" són igual de forts en el desenvolupament d'algoritmes de guerra.

Guerra algorítmicaque, segons molts, podria canviar fonamentalment la cara del camp de batalla tal com el coneixem, sobretot perquè la guerra seria més ràpida, molt per davant de la capacitat de decisió de la gent. general americà Jack Shanahan (1), cap del Joint Center for Artificial Intelligence dels EUA, subratlla, però, que abans d'introduir la intel·ligència artificial als arsenals, hem d'assegurar-nos que aquests sistemes encara estiguin sota control humà i no iniciïn guerres per si mateixos.

"Si l'enemic té màquines i algorismes, perdrem aquest conflicte"

Capacitat de conducció guerra algorítmica es basa en l'ús dels avenços de la tecnologia informàtica en tres àmbits principals. Primer dècades de creixement exponencial de la potència de càlculaixò ha millorat molt el rendiment de l'aprenentatge automàtic. Segon creixement ràpid dels recursos "Big data", és a dir, conjunts de dades enormes, generalment automatitzats, gestionats i creats contínuament adequats per a l'aprenentatge automàtic. La tercera preocupació ràpid desenvolupament de les tecnologies de computació en núvol, a través del qual els ordinadors poden accedir fàcilment als recursos de dades i processar-los per resoldre problemes.

Algoritme de guerratal com defineixen els experts, primer s'ha d'expressar amb codi de l’ordinador. En segon lloc, ha de ser el resultat d'una plataforma capaç tant de recollir informació com de prendre decisions, de prendre decisions que, almenys en teoria, no requereixen. intervenció humana. En tercer lloc, que sembla obvi, però no necessàriament, perquè només en l'acció es fa evident si una tècnica destinada a una altra cosa pot ser útil en la guerra i viceversa, ha de poder treballar en condicions. conflicte armat.

Una anàlisi de les direccions anteriors i la seva interacció ho demostra guerra algorítmica no és una tecnologia separada com, per exemple. arma energètica o míssils hipersònics. Els seus efectes són amplis i gradualment s'estan fent omnipresents en les hostilitats. Per primera vegada vehicles militars es tornen intel·ligents, la qual cosa pot fer que les forces de defensa que les implementen siguin més eficients i efectives. Aquestes màquines intel·ligents tenen clares limitacions que cal entendre bé.

"", va dir Shanahan la tardor passada en una entrevista amb l'antic conseller delegat de Google Eric Schmidt i el vicepresident d'afers internacionals de Google Kent Walker. "".

L'esborrany d'informe del Consell de Seguretat Nacional dels Estats Units sobre IA es refereix a la Xina més de 50 vegades, destacant l'objectiu oficial de la Xina d'esdevenir el líder mundial en IA l'any 2030 (Vegeu també: ).

Aquestes paraules es van pronunciar a Washington en una conferència especial que va tenir lloc després que l'esmentat Shanakhan Center presentés al Congrés el seu informe preliminar, elaborat en col·laboració amb reconeguts experts en l'àmbit de la intel·ligència artificial, entre els quals el director d'investigació de Microsoft Eric Horwitz, el CEO d'AWS Andy Jassa i Andrew Moore, investigador principal de Google Cloud. L'informe final es publicarà a l'octubre de 2020.

Els empleats de Google protesten

Fa uns anys, el Pentàgon es va implicar. guerra algorítmica i una sèrie de projectes relacionats amb la IA en el marc del projecte Maven, basats en la col·laboració amb empreses tecnològiques, com ara Google i startups com Clarifai. Es tractava principalment de treballar-hi intel · ligència artificialper facilitar la identificació d'objectes.

Quan es va conèixer la participació de Google en el projecte a la primavera de 2018, milers d'empleats del gegant de Mountain View van signar una carta oberta protestant contra la participació de l'empresa en les hostilitats. Després de mesos de malestar laboral Google ha adoptat el seu propi conjunt de regles per a la IAque inclou la prohibició de participar en esdeveniments.

Google també s'ha compromès a completar el contracte del Project Maven a finals del 2019. La sortida de Google no va acabar amb el Projecte Maven. Va ser comprat per Palantir de Peter Thiel. La Força Aèria i el Cos de Marines dels EUA planegen utilitzar vehicles aeris no tripulats especials, com el Global Hawk, com a part del projecte Maven, cadascun dels quals se suposa que supervisa visualment fins a 100 quilòmetres quadrats.

Amb motiu del que està passant al voltant del Projecte Maven, va quedar clar que l'exèrcit nord-americà necessita urgentment el seu propi núvol. Això és el que va dir Shanahan durant la conferència. Això va ser evident quan s'havien de transportar les imatges de vídeo i les actualitzacions del sistema a instal·lacions militars escampades pel camp. En edifici computació en núvol unificada, que ajudarà a resoldre problemes d'aquest tipus, com a part d'un projecte d'infraestructura informàtica unificada per a l'exèrcit Jedi, Microsoft, Amazon, Oracle i IBM. Google no ho és pels seus codis ètics.

De la declaració de Shanahan queda clar que la gran revolució de la IA a l'exèrcit tot just comença. I el paper del seu centre a les forces armades nord-americanes està creixent. Això es veu clarament en el pressupost estimat de JAIC. El 2019, va ascendir a poc menys de 90 milions de dòlars. El 2020, ja hauria de ser de 414 milions de dòlars, o al voltant del 10 per cent del pressupost d'IA de 4 milions de dòlars del Pentàgon.

La màquina reconeix un soldat rendit

Les tropes nord-americanes ja estan equipades amb sistemes com el Phalanx (2), que és un tipus d'arma autònoma que s'utilitza als vaixells de la Marina dels EUA per atacar míssils entrants. Quan es detecta un míssil, s'encén automàticament i destrueix tot el que està al seu pas. Segons Ford, pot atacar amb quatre o cinc míssils en mig segon sense haver de passar i mirar cada objectiu.

Un altre exemple és el semiautònom Harpy (3), un sistema comercial no tripulat. L'arpia s'utilitza per destruir els radars enemics. Per exemple, l'any 2003, quan els EUA van llançar un atac a l'Iraq amb sistemes d'intercepció de radar aerotransportats, els drons de fabricació israeliana van ajudar a trobar-los i destruir-los perquè els nord-americans poguessin volar amb seguretat a l'espai aeri iraquià.

3. Llançament del dron del sistema IAI Harpy

Un altre exemple conegut d'armes autònomes és Sistema coreà Samsung SGR-1, situat a la zona desmilitaritzada entre Corea del Nord i Corea del Sud, dissenyat per identificar i disparar intrusos a una distància de fins a quatre quilòmetres. Segons la descripció, el sistema "pot distingir entre una persona que es rendeix i una persona que no es rendeix" segons la posició de les seves mans o el reconeixement de la posició de l'arma a les seves mans.

4. Demostració de la detecció d'un soldat que es rendeix pel sistema Samsung SGR-1

Els nord-americans tenen por de quedar-se enrere

Actualment, almenys 30 països d'arreu del món utilitzen armes automàtiques amb diferents nivells de desenvolupament i ús de la IA. La Xina, Rússia i els Estats Units veuen la intel·ligència artificial com un element indispensable per construir la seva futura posició al món. "Qui guanyi la carrera d'IA governarà el món", va dir als estudiants el president rus Vladimir Putin l'agost del 2017. El president de la República Popular de la Xina, Xi Jinping, no ha fet declaracions tan destacades als mitjans, però és el principal impulsor de la directiva que demana que la Xina es converteixi en la força dominant en el camp de la IA l'any 2030.

Als Estats Units hi ha una preocupació creixent per l'"efecte satèl·lit", que ha demostrat que els Estats Units estan extremadament mal equipats per afrontar els nous reptes que planteja la intel·ligència artificial. I això pot ser perillós per a la pau, encara que només sigui perquè el país amenaçat per la dominació pot voler eliminar l'avantatge estratègic de l'enemic d'una altra manera, és a dir, per la guerra.

Tot i que l'objectiu original del projecte Maven era ajudar a trobar combatents islàmics de l'ISIS, la seva importància per al desenvolupament posterior dels sistemes militars d'intel·ligència artificial és enorme. La guerra electrònica basada en gravadors, monitors i sensors (inclosos mòbils, voladors) s'associa a un gran nombre de fluxos de dades heterogenis, que només es poden utilitzar de manera efectiva amb l'ajuda d'algoritmes d'IA.

El camp de batalla híbrid s'ha convertit versió militar d'IoT, rica en informació important per avaluar amenaces i oportunitats tàctiques i estratègiques. Poder gestionar aquestes dades en temps real té grans beneficis, però no aprendre d'aquesta informació pot ser desastrós. La capacitat de processar ràpidament el flux d'informació de diverses plataformes que operen en múltiples àrees ofereix dos avantatges militars importants: velocitat i accessibilitat. La intel·ligència artificial us permet analitzar les condicions dinàmiques del camp de batalla en temps real i colpejar de manera ràpida i òptima, alhora que minimitza el risc per a les vostres pròpies forces.

Aquest nou camp de batalla també és omnipresent i. La IA està al cor dels anomenats eixams de drons, que han rebut molta atenció en els últims anys. Amb l'ajuda de sensors omnipresents, no només permet als drons navegar per terrenys hostils, sinó que eventualment permetrà la formació de formacions complexes de diversos tipus de vehicles aeris no tripulats que operen en moltes zones, amb armes addicionals que permeten tàctiques de combat sofisticades, adaptant-se immediatament a la enemic. maniobres per aprofitar el camp de batalla i informar de les condicions canviants.

Els avenços en la designació i navegació d'objectius assistits per IA també estan millorant les perspectives d'eficàcia en una àmplia gamma de sistemes de defensa tàctica i estratègica, especialment la defensa de míssils, millorant els mètodes de detecció, seguiment i identificació d'objectius.

augmenta constantment el poder de les simulacions i les eines de joc utilitzades per investigar armes nuclears i convencionals. El modelatge i la simulació massiva seran essencials per desenvolupar un sistema integral multidomini de sistemes d'objectius per al control de combat i missions complexes. La IA també enriqueix les interaccions de diverses parts (5). La IA permet als jugadors afegir i modificar variables del joc per explorar com les condicions dinàmiques (armes, participació aliada, tropes addicionals, etc.) poden afectar el rendiment i la presa de decisions.

Per als militars, la identificació d'objectes és un punt de partida natural per a la IA. En primer lloc, cal una anàlisi completa i ràpida del nombre creixent d'imatges i informació recollida de satèl·lits i drons per trobar objectes d'importància militar, com ara míssils, moviments de tropes i altres dades relacionades amb la intel·ligència. Avui, el camp de batalla abasta tots els paisatges (mar, terra, aire, espai i ciberespai) a escala global.

Ciberespaicom a domini inherentment digital, és naturalment adequat per a aplicacions d'IA. Al costat ofensiu, la IA pot ajudar a trobar i orientar nodes de xarxa individuals o comptes individuals per recopilar, interrompre o desinformar. Els ciberatacs a la infraestructura interna i les xarxes de comandament poden ser desastrosos. Pel que fa a la defensa, la IA pot ajudar a detectar aquestes intrusions i trobar anomalies destructives en els sistemes operatius civils i militars.

Velocitat esperada i perillosa

Tanmateix, la presa de decisions ràpida i l'execució ràpida poden no ser-vos útils. per a una gestió anticrisi eficaç. Els avantatges de la intel·ligència artificial i els sistemes autònoms en el camp de batalla potser no donen temps a la diplomàcia, que, com sabem per la història, sovint ha tingut èxit com a mitjà per prevenir o gestionar una crisi. A la pràctica, frenar, fer una pausa i tenir temps per negociar poden ser la clau per a la victòria, o almenys per evitar la catàstrofe, especialment quan hi ha armes nuclears en joc.

Les decisions sobre la guerra i la pau no es poden deixar a l'anàlisi predictiva. Hi ha diferències fonamentals en com s'utilitzen les dades amb finalitats científiques, econòmiques, logístiques i predictives. comportament humà.

Alguns poden percebre la IA com una força que debilita la sensibilitat estratègica mútua i, per tant, augmenta el risc de guerra. Les dades corruptes de manera accidental o intencionada poden fer que els sistemes d'IA realitzin accions no desitjades, com ara identificar i orientar de manera incorrecta els objectius. La velocitat d'acció que es postula en el cas del desenvolupament d'algoritmes bèl·lics pot suposar una escalada prematura o fins i tot innecessària que impedeix la gestió racional de la crisi. D'altra banda, els algorismes tampoc s'esperaran i explicaran, perquè també s'espera que siguin ràpids.

Aspecte inquietant funcionament dels algorismes d'intel·ligència artificial també presentat per nosaltres recentment a MT. Fins i tot els experts no saben exactament com la IA condueix als resultats que veiem a la sortida.

En el cas dels algorismes de guerra, no ens podem permetre aquest desconeixement sobre la natura i com els "pensen". No volem despertar-nos enmig de la nit amb erupcions nuclears perquè la "nostra" o la "seva" intel·ligència artificial ha decidit que és hora de resoldre finalment el joc.

Afegeix comentari