AI Ethik kämpft mam Fiery One-Two Punch vu béiden AI-baséierten Autonome Waffesystemer an d'Exploitatioun vun AI-driven Autonome Systemer déi Däiwel bewaffnet sinn

Déi erstaunlech danzen véier-Been Roboteren.

Ech si sécher datt Dir déi viral Videoe vun de véierbeen Roboter Systemer gesinn hutt, déi op anscheinend erfreelech an Hondsähnlech beléifte Weeër danzen a pranzéieren. Mir schéngen et ze genéissen dës AI-ugedriwwen Roboter ze gesinn wéi se iwwer Hindernisser klammen a schéngen e delikate Fouss ze kréien wann se uewen op Këschte stinn oder nodeems se virsiichteg op tipty Tops vu Schränke gesat goufen. Hir mënschlech Handler wäerten heiansdo déi froegend véier-Been Roboteren pochen oder drécken, wat erschreckend ongerecht schéngt a ka ganz einfach Är Roserei op der bratty Behandlung vun dëse Mastermind Humanoiden erhéijen.

Ech froe mech awer ob Dir déi net sou viral Videoe vun engem ganz anere Kaliber gesinn hutt.

Bereet Iech vir.

Et gi wäit gepost Videoen déi déiselwecht Aart vu véierbeenegen Roboteren weisen, déi mat ausgeprägte Waff vun enger oder anerer Aart ausgestatt sinn.

Zum Beispill ass eng Maschinnegewier oder ähnlech Feierwaffen op engem soss bekannten danzen-a-prancing Roboter montéiert. Et gëtt eng elektronesch Verbindung tëscht dem véier-Been Roboter an dem Feiermechanismus vun der Waff. Déi elo bewaffnete Computer-Walking-Contraption gëtt gewisen, wou e Bullseye-Zil plazéiert ass, an d'Maschinnegewier ass rat-a-tat op d'Zil geschoss. Nodeem de spéider deelweis zerstéierten Zil nagelen, danzt de véier-Been Roboter a sprëtzt ronderëm d'nächst Hindernisser a riicht sech op fir déiselwecht Aktioun ëmmer erëm op aner frësch Ziler ze widderhuelen.

Net ganz wat Dir erwaart hätt ze gesinn. Dëst hëlt sécherlech d'Liichtegkeet an d'relativ Freed aus der éierlech ze kucken wéi déi kuscheleg véierbeen Roboter hir Saach maachen. Wëllkomm op der haarder Realitéit vun scheinbar onschëlleg autonom Systemer ginn ëmgewandelt oder transforméiert a schaarf bewaffnet ginn. Mat nary vill Efforten , Dir kënnt Iwwernuechtung engem betruecht hunn "Net-waffen" autonom System retrofitted voll-op Waff ze enthalen.

Et ass bal einfach an e puer Ëmstänn.

Ech wäert dëst hefteg kontrovers Thema diskutéieren an iwwer déi zimlech hefteg AI Ethik Qualmer déi entstinn. Mir wäerten eng Rees an autonom Systemer maachen, AI, autonom Gefierer, Waffiséierung, an eng ganz Rëtsch vun Zesummenhang Ethesch AI kämpfen Themen. Fir meng lafend an extensiv Ofdeckung vun AI Ethik an Ethesch AI, kuckt de Link hei an de Link hei, Just e puer ze Numm.

Loosst eis mat e puer grondleeënd Keystones ufänken.

Fir d'Diskussioun ze akzeptéieren, akzeptéieren datt et zwee grouss Weeër ginn fir autonom Systemer ze kategoriséieren déi mat Waffe bewaffnet goufen:

1) Autonom Waffen Systemer (vum Design)

2) Autonom Systemer déi bewaffnet sinn (no der Tatsaach)

Et gëtt e wichtegen Ënnerscheed tëscht den zwou Kategorien.

Am éischte Fall wäerte mir eng definéieren autonome Waffesystem vun Ufank un engem Terrain op computeriséierter Kreatioun ze sinn, déi gezielt ass eng Waff ze sinn. D'Entwéckler haten am Kapp, datt si eng Waff wollten ausschaffen. Hir explizit Sich ass eng Waff ze produzéieren. Si woussten, datt si integral Waff kombinéiere kënnen mat de leschten an autonome Systemtechnologien. Dëst ass eng Waff déi op d'Welle vum High-Tech fuert, déi autonom Bewegung an autonom Handlungen erreecht (ech wäert méi komplett ausbauen, kuerz).

Am Géigesaz, an der zweeter Instanz wäerte mir d'Thema vun autonome Systemer betruechten, déi guer keng speziell Schréiegt op d'Waffe hunn. Dëst sinn autonom Systemer déi fir aner Zwecker entwéckelt ginn. Stellt Iech en autonomt Gefier vir wéi e selbstfahren Auto, dee benotzt gëtt fir Mobilitéit fir all ze bidden an Hëllef fir déi Dausende vun alljährlechen Doudesfäll ze reduzéieren, déi duerch mënschlech fueren a mënschlech bedriwwen Autoen optrieden (kuckt meng detailléiert Ofdeckung op de Link hei). Keng Waff schéngt a Betruecht ze sinn fir déi optimistesch gesellschaftlech Erhuelung Efforten fir Mënschen hannert dem Rad erauszekréien an amplaz AI an de Chauffer ze setzen.

Awer déi onschëlleg autonom Systemer kënne bewaffnet ginn, wann d'Mënschen dat wëllen.

Ech bezéien op dës zweet Kategorie dann als autonom Systemer déi bewaffnet sinn. Den autonome System gouf ursprénglech an devoutly fir e viraussiichtlech net-Waffenzweck gemaach. Trotzdem gëtt déi dreemend altruistesch Hoffnung vun engem iergendwou opgehuewen, deen d'konnivéierend Iddi kritt datt dës Auswierkunge bewaffnet ka ginn. Op eemol ass den autonome System, dee kuscheleg ausgesinn huet, eng fatal Waff ginn andeems se eng Form vu Waffefäegkeeten markéieren (wéi déi véierbeeneg Hondsähnlech Roboter, déi virdru erwähnt sinn, déi eng Maschinnegewier oder ähnlech Feierwaff op hir Feature bäigefüügt hunn) .

Leider sinn déi zwou Kategorien e bëssen op der selwechter Plaz, nämlech eng Kapazitéit ubidden fir autonom Systemer fir Waff op enger potenziell fataler Basis ze benotzen.

De Prozess fir zu deem Endpunkt ze kommen ass méiglecherweis anescht.

Fir déi direkt bewaffnet autonom Systemer, déi als Waffe gepecht goufen, sinn d'Waffeaspekter typesch virun an am Zentrum. Dir kënnt soen datt d'Facetten vum autonome System ëm den Ecksteen gewéckelt sinn vun egal wéi eng Waff ugesi gëtt. Den Denkprozess vun den Entwéckler ass e bësse laanscht d'Linnen wéi eng Waff d'Entstoe vun autonome Systemer ausnotzen kann.

Déi aner Perspektiv ass normalerweis guer net vun deem Gedanken. D'Entwéckler wëllen e modernsten autonome System ofleeden, vläicht fir d'Verbesserung vun der Mënschheet. Dës Entwéckler setzen hir oprecht Häerz a Séil fir den autonome System ze maachen. Dëst ass de Kär vun hirer Erfindung. Si kënne sech net virstellen datt iergendeen hir wonnerbar nëtzlech Apparat géif usurpéieren oder subvertéieren. Si si glécklech begeeschtert mat de gesellschaftleche Virdeeler verbonne mam autonome System, deen geformt a produzéiert gëtt.

Iergendwann, loosst eis soen datt Drëtt Parteien realiséieren datt den autonome System ka rejiggeréiert ginn fir bewaffnet ze ginn. Vläicht tricken se d'Entwéckler fir hinnen den autonome System ze loossen fir wat als héich Zwecker behaapt gëtt. Hannert zouenen Dieren entscheeden dës Béiser fir eng Waffnisatiounskapazitéit zum autonome System ze schmaachen. Voila, Onschold verwandelt zu direkt Waff.

D'Saache mussen net esou virgoen.

Vläicht goufen d'Entwéckler gesot datt si en onschëllegen autonome System entwéckelen, awer déi, déi den Effort finanzéieren oder dirigéieren, haten aner Zwecker am Kapp. Vläicht huet den autonome System Effort wierklech onschëlleg ugefaang, awer dann, wann d'Rechnunge musse bezuelt ginn, huet d'Leedung en Deal mat enger Finanzéierungsquell geschnidden, déi déi autonom Systemer aus nefaresche Grënn wëll. Eng aner Méiglechkeet ass datt d'Entwéckler woussten datt e spéider Notzung fir Waffen kéint sinn, awer datt se geduecht hunn datt se dës schrecklech Bréck iwwerschreiden wann oder wann et jeemools entstanen ass. etc.

Et gi vill a vill verschidde Weeër wéi dëst alles spillt.

Dir fannt vläicht interessant datt ech a fréiere Kolonnen beschriwwen hunn datt et e steigend AI Ethik Bewosstsinn betreffend de duebel benotzt Elementer vun der zäitgenëssescher AI, kuckt de Link hei. Loosst mech Iech kuerz op d'Vitesse bréngen.

En AI System dee fir dat Gutt virgesinn ass kann heiansdo um Rand vum Schlecht sinn, vläicht iwwer e puer zimlech einfach Ännerungen, an entspriechend als vun enger Dual-Use Natur ugesinn. An der Neiegkeet viru kuerzem war en AI System dee gebaut gouf fir Chemikalien z'entdecken déi Killer kéinte sinn, fir déi d'Entwéckler wollte sécherstellen datt mir esou schlecht konzipéiert Chemikalien vermeiden oder oppassen. Et stellt sech eraus datt d'AI e bësse liicht tweaked ka ginn fir engagéiert dës Killer Chemikalien z'entdecken an doduerch potenziell Béisen z'erméiglechen ze wëssen wéi eng Aarte vu Chemikalien potenziell kachen fir hir onheemlech béis Pläng.

Autonom Systemer kënnen beweisbar an dës Dual-Use Enveloppement passen.

Zu engem gewësse Grad, dofir ass AI Ethik an Ethesch AI sou en entscheedend Thema. D'Virschrëfte vun der AI Ethik bréngen eis waakreg ze bleiwen. AI Technologen kënnen heiansdo mat Technologie beschäftegt ginn, besonnesch d'Optimiséierung vum High-Tech. Si berücksichtegen net onbedéngt déi gréisser gesellschaftlech Auswierkunge. En AI Ethics Mentalitéit ze hunn an dat integral mat der AI Entwécklung a Fielding ze maachen ass vital fir entspriechend AI ze produzéieren, inklusiv (vläicht iwwerraschend oder ironesch) d'Bewäertung vu wéi AI Ethik vu Firmen ugeholl gëtt.

Nieft der AI Ethik Virschrëften am Allgemengen ze benotzen, gëtt et eng entspriechend Fro ob mir Gesetzer solle hunn fir verschidde Benotzung vun AI ze regéieren. Nei Gesetzer ginn op Bundes-, Staats- a lokalen Niveauen ëmginn, déi d'Gamme an d'Natur betreffen wéi d'AI soll ausgeschafft ginn. Den Effort fir esou Gesetzer auszeschaffen an duerchzesetzen ass graduell. AI Ethik déngt op d'mannst als e betruechten Stopgap, a wäert bal sécher zu engem gewësse Grad direkt an déi nei Gesetzer agebaut ginn.

Sidd bewosst datt e puer onbestänneg argumentéieren datt mir keng nei Gesetzer brauchen déi AI decken an datt eis existent Gesetzer genuch sinn. Tatsächlech warnen si viraus datt wa mir e puer vun dësen AI Gesetzer asetzen, mir déi gëllen Gäns ënnersträichen andeems se Fortschrëtter an der AI erofklammen déi immens gesellschaftlech Virdeeler bidden.

D'Autonomie an d'Waff als zwee Virschrëfte

Et gëtt e Fangerofdrock, deen e puer benotze fir iwwer bewaffnet autonom Systemer vun allen Aarte viraus ze warnen, déi kollektiv als Schluechtbotter.

Dëst bréngt en zousätzlechen Aspekt op, dee mir sollten iwwerdenken.

Muss en autonome Waffesystem an/oder en autonome System, dee bewaffnet gouf, vun enger fataler oder killer Roboter Iwwerhand sinn?

Verschiddener géifen plädéieren, datt mir kënnen entscheet hunn net fatal och waffen autonom Systemer. Also, an där Siicht, schéngt et déif onpassend Ausdréck wéi Schluechtbots oder Killerroboter ze benotzen. Eng net-tödlech Variant wier viraussiichtlech fäeg e Schued z'ënnerdrécken oder z'informéieren, deen net vun engem fatale Resultat ass. Dës sou Systemer killen net, si hunn eng manner Verletzungsgeneréierend Kapazitéit. Iwwerschätzt net d'Fäegkeeten, soten déi, déi insistéieren, datt mir net mat enger direkter Killmaschinn-Trope beschäftegt musse sinn.

Also kënne mir dëst hunn:

  • Déidlech autonom Waffesystemer
  • Déidlech autonom Systemer déi bewaffnet goufen
  • Net-fatal autonom Waffesystemer
  • Net-fatal autonom Systemer déi bewaffnet goufen

Natierlech ass d'Géigeargument datt all autonom System, dee bewaffnet gouf, d'Potenzial schénge fir an d'Dödlechkeetsräich ze rutschen, och wa se vermeintlech nëmme virgesinn ass fir op eng net-fatalen Basis ze benotzen. Den inkrementellen Zwee-Schrëtt vun net-fatal op fatal ze goen wäert séier ënnerholl ginn wann Dir schonn eng Waff an der Hand an engem autonome System kritt. Dir wier schwéier gedréckt fir eng Eisebunnsgarantie ze bidden datt den Net-fatal net an d'tödlech Arena gesat gëtt (obwuel e puer probéieren dat ze maachen, an enger mathematescher Scheinung).

Ier mer vill méi wäit an dëst Gesamtthema vun autonome Systemer a Waffung kommen, ass et praktesch eppes anescht ze weisen, dat obwuel vläicht offensichtlech net onbedéngt sichtbar am Kapp ass.

Hei ass et:

  • Et gëtt en AI Aspekt deen Deel vum autonome System ass
  • Et gëtt e Waffenaspekt deen d'Waffesäit vun dëser Equatioun ass
  • D'AI kéint och mat der Waff verbonne sinn

Loosst eis dat auspaken.

Mir wäerten ugeholl datt déi autonom Systemer vun haut AI erfuerderen als dat Basisdaten computeriséierte Mëttel fir déi autonom Facetten erauszebréngen. Ech ernimmen dëst well Dir kéint probéieren ze streiden datt mir net-AI-relatéiert Technologien an Techniken benotze kënnen fir déi autonom Systemer ze maachen, déi och wann et richteg ass, manner a manner wahrscheinlech schéngen. Prinzipiell tendéiert AI fir méi Autonomieniveauen z'erméiglechen, an déi meescht profitéieren deementspriechend AI High-Tech.

Okay, also hu mir eng AI-baséiert Kapazitéit déi iergendwéi am autonome System infuséiert ass an handelt fir den autonomen System ze guidéieren an ze kontrolléieren.

Halt dat bei Äre Fangerspëtzten als Fauschtregel.

Et schéngt kloer datt mir och eng Form vu Waff mussen hunn, soss firwat diskutéiere mir hei d'Thema vun autonome Systemer an Waffen. Also, jo, selbstverständlech gëtt et eng Waff vun enger oder anerer Aart.

Ech wäert net an d'Zort vu Waff verdéiwen déi benotzt ka ginn. Dir kënnt einfach all Waff ersetzen déi am Kapp kënnt. Et kéint präzis Waff ginn. Et kéint massorientéiert zerstéierend Waff sinn. Et kéint eppes mat Kugelen oder Projektilen sinn. Et kann eppes sinn dat Chemikalien oder atomar liichtflüchtege Komponenten huet. D'Lëscht ass endlos.

Déi zousätzlech Iwwerleeung ass ob AI mat Waff verbonnen ass oder net. Den AI ka just d'Waffe fir e Ride huelen. Am Fall vum Véierbeen Roboter, deen eng Waff erschoss huet, gëtt d'Waff vläicht vun engem Mënsch ofgeschoss, deen eng Fernsteierung verbonnen huet mat der Ausléisung vun der Waff. Den Hondsähnleche Roboter navigéiert eng Szen an dann ass et un engem Fernmënsch den Ausléiser ze zéien.

Op der anerer Säit kann den AI den Ausléiser Puller sinn, wéi et war. D'AI kéint entwéckelt gi fir net nëmmen ze navigéieren a manoeuvréieren, awer och d'Waff aktivéieren. An deem Sënn mécht d'AI alles vun A bis Z. Et gëtt keng Ofhängegkeet vun engem Remote Mënsch fir d'Waffesäit vun de Saachen auszeféieren. Den AI ass programméiert fir dat amplaz ze maachen.

Fir dann an dësem speziellen Benotzungsfall vun autonome Systemer ze klären, déi bewaffnet sinn, hu mir dës Aarte vu Méiglechkeeten:

  • Autonom System: AI bedreift den autonome System ganz eleng
  • Autonom System: AI bedreift den autonome System, awer e Mënsch-an-der-Loop kann och intervenéieren
  • Waff: Remote Mënsch féiert d'Waffe (den AI net)
  • Waff: AI leeft d'Waffe, awer e Mënsch-an-der-Loop kann och intervenéieren
  • Waff: AI bedreift d'Waffe ganz eleng

Ech hu virdru d'Variatiounen iwwerdeckt fir e Mënsch-an-der-Loop ze hunn iwwer autonom Systemer an autonom Gefierer, kuckt de Link hei.

Wann Dir dës lëschteg orientéiert Videoe vun den danzen a prancing véier-Been Roboteren kuckt, si sollen normalerweis Roboteren sinn, déi exklusiv vun der AI navigéiert ginn (gutt, dat ass de Brauch oder als richteg Etikett ënner deenen déi déif sinn) an dës Themen). Dat kann een och mat Recht unhuelen. Natierlech wësst Dir dat net sécher. Et kéint sinn datt e Remote mënschleche Bedreiwer d'Robotere guidéiert. Et gëtt och eng Méiglechkeet datt den AI en Deel vun der Leedung mécht, an e Remote mënschleche Bedreiwer mécht dat och, vläicht hëlleft den AI wann de Roboter an eng haart Positioun kënnt an net berechentbar e liewensfäeg Mëttel berechent fir sech selwer fräi ze wéckelen.

Den Haaptgrond hei ass datt et vill Aromen sinn wéi AI an autonom Systemer a Waffung fäeg sinn ze vermëschen. E puer hunn AI deen den autonome System leeft awer net d'Waffe leeft. E Mënsch féiert vläicht d'Waffe wäit ewech. En anere Wénkel ass datt d'Waffe vläicht virdru aktivéiert ass, an den autonome System liwwert déi aktivéiert Waff, also huet den AI net direkt un der Ausléisung vun der Waff per se deelgeholl an huet amplaz als Liwwerfahrt gehandelt. An et kéint sinn datt d'AI e sproochleche Jack-of-all-Trades ass an de ganze Spektrum vun autonome Systemaspekter och fir d'Waffebenotzung mécht.

Maacht Äre Choix.

Mëttlerweil wësse w.e.g. datt de Mënsch-an-der-Loop e grousse Faktor ass wann et ëm Debatten iwwer dëst Thema kënnt.

Eng Trennungslinn vun e puer ass datt wann d'AI d'Ziel an d'Schéiss mécht (oder wat och ëmmer d'Waff enthält) dann ass de ganze Kit an de Caboodle an kee Land iwwergaang. Dëst ënnerscheet sech anscheinend vun de konventionelle Feier-a-Vergiess-Waffen, déi eng virgezielte mënschlech bestëmmte Selektioun hunn, sou wéi eng patrouilléierend Dron, déi eng Rakéit prett huet fir op en Zil ze schéissen, dat war schonn vun engem Mënsch gewielt.

E puer froe sech firwat autonom Systemer, déi bewaffnet sinn, net ëmmer e Mënsch-an-der-Loop am ganze Prozess vum autonome System an engem aktiven Zoustand enthalen. Schéngt wéi wann mir besser wieren wann e strenge Fuerderung war datt all sou bewaffnet autonom Systemer e Mënsch-an-der-Loop musse hunn, entweder fir d'Operatioun vum autonome System oder fir d'Waffen ze bedreiwen (oder fir béid) . Eng ugeholl sécher a stänneg mënschlech Hand an dësem AI Mix ze halen kéint ganz schlau schéngen.

Bereet Iech fir eng laang Lëscht vu Grënn firwat dëst net onbedéngt machbar ass.

Bedenkt dës Schwieregkeeten:

  • Mënsch-an-der-Loop ass vläicht net séier genuch fir fristgerecht ze reagéieren
  • Human-in-the-Loop hu vläicht net genuch Informatioun fir pflichteg ze reagéieren
  • Human-in-the-Loop ass vläicht net zur Zäit verfügbar
  • Human-in-the-Loop kéint onbestëmmt sinn a wäert net handelen wann néideg
  • Mënsch-an-der-Loop kéint déi "falsch" Entscheedung treffen (relativ)
  • Human-in-the-Loop ass vläicht net zougänglech aus dem System zur néideger Zäit
  • Mënsch-an-der-Loop kéint duercherneen ginn an iwwerwältegt ginn
  • Etc.

Dir sidd ouni Zweifel versicht dës Lëscht vu mënschlechen Zerbriechlechkeeten a Aschränkungen ze kucken an dann zu der feierlecher Conclusioun ze kommen datt et scheinbar Sënn mécht de Mënsch-an-der-Loop ze excitéieren an ëmmer amplaz AI ze benotzen. Dëst kéint entweder op d'Ausgrenzung vum Mënsch-an-der-Loop sinn oder vläicht hunn d'AI fäeg en agebaute Mënsch-an-der-Loop Design ze iwwerschreiden. Kuckt meng Analyse wéi Meenungsverschiddenheeten tëscht AI an engem Mënsch-an-der-Loop zu prekäre Situatiounen féieren, iwwerdeckt op de Link hei.

Dacks gëtt eng belittend Lëscht vun dësen Aarte vun Echtzäit Mënsch-fokusséierten Nodeeler op sech selwer hannerlooss a léisst e laangen Androck datt d'AI iergendwéi Sprangen a Grenze muss e vill méi schlau Choix sinn wéi e Mënsch-an-der-Loop ze hunn . Falt net an déi verréidlech Fal. Et sinn nüchtern Ofkommes involvéiert.

Bedenkt dës Auswierkunge vun der AI:

  • AI kéint e Feeler begéinen, deen et verdréit
  • AI kéint iwwerwältegt ginn an onreaktiounsfäeger gespaart ginn
  • AI kéint Entwécklerbugs enthalen déi onregelméisseg Verhalen verursaachen
  • AI kéint mat implantéierte Béiser Virus korrupt sinn
  • AI kéint vun Cyberhacker an Echtzäit iwwerholl ginn
  • AI kéint als onberechenbar ugesi ginn wéinst Komplexitéiten
  • AI kéint computationally déi "falsch" Entscheedung treffen (relativ)
  • Etc.

Ech vertrauen datt Dir gesitt datt et Ausgläich gëtt tëscht engem Mënsch-an-der-Loop ze benotzen versus eleng op AI ofhängeg ze sinn. Am Fall wou Dir versicht sidd ze proposéieren datt déi fäerdeg Léisung ass béid ze benotzen, wëll ech just ënnersträichen datt Dir dat Bescht vu béide Welte kritt, awer Dir kënnt och dat Schlëmmst vu béide Welte kréien. Gitt net un datt et ëmmer a sécher dat Bescht vu béide Welte wäert sinn.

Dir sidd vläicht e bëssen iwwerrascht vun engem vun den uewe genannten Nodeeler iwwer AI, speziell datt d'AI kéint sinn onberechenbar. Mir si gewinnt ze gleewen datt AI strikt logesch a mathematesch präzis soll sinn. Als esou kënnt Dir och erwaarden datt d'AI voll prévisibel wäert sinn. Mir solle genau wëssen wat AI wäert maachen. Period, Enn vun der Geschicht.

Entschëllegt dee Ballon ze platzen awer dëse Mythos vun der Prévisibilitéit ass e falsche Bezeechnung. D'Gréisst an d'Komplexitéit vun der moderner AI ass dacks e Morass, dee sech perfekt prévisibel ass. Dëst gëtt an den etheschen AI Opstänn iwwer e puer Machine Learning (ML) an Deep Learning (DL) Gebrauch vun haut gesi ginn. Ech wäert e bësse méi momentan erklären.

Och wëllt Dir vläicht meng lescht Analyse vun den zukünftege Trends kucken fir ze probéieren verifizéierbar a mathematesch beweisbar korrekt AI Systemer iwwer déi lescht an AI Sécherheet ze garantéieren, um de Link hei.

Ruminéieren op d'Regele vun der Strooss

Ech hat d'Notioun vun Ziler an Zilsetzung ernimmt, dat ass en zimlech schwéier belaaschte Stéck Terminologie, déi eng grouss Opmierksamkeet verdéngt.

Mir kënnen dëst nodenken:

  • Ziler déi Mënschen sinn
  • Ziler déi net Mënschen sinn awer lieweg Kreaturen
  • Ziler déi als Immobilie ugesi ginn

Ugeholl datt mir en autonome System hunn, dee bewaffnet gouf. D'AI gëtt benotzt fir den autonome System ze guidéieren a fir Waff benotzt. D'AI mécht alles vun A bis Z. Et gëtt keng Dispositioun fir e Mënsch-an-der-Loop. Wat d'Ziel ugeet, wäert d'AI d'Ziler wielen. Et gëtt keng Pre-Targeting déi vu Mënschen etabléiert gouf. Amplaz ass d'AI programméiert fir allgemeng festzestellen ob et Mënschen sinn déi gezielt solle ginn (vläicht Scannen no feindlechen Aktiounen, verschidden Aarte vun Uniformen, asw.).

Mat mir op dëser sou wäit?

Dëst Szenario ass zimlech deen deen am meeschte Gejäiz iwwer bewaffnet autonom Systemer verursaacht.

Déi uginn Suerg ass datt d'AI (op d'mannst) dräi Saache mécht, déi et net erlaabt ze maachen:

  • Mënschen als Ziler zielen
  • Gezielt ouni de Gebrauch vun engem Mënsch-an-der-Loop
  • Potenziell onberechenbar handelenly

Notéiert datt et e punktuellen Ernimmung vu Suergen ass datt d'AI onberechenbar ass. Et kéint sinn datt och wann d'AI programméiert ass fir verschidden Aarte vu Mënschen ze zielen, d'AI Programméierung ass net wat mir geduecht hunn et wier, an d'AI zielt endlech op "Frëndschaften" zousätzlech zu deenen, déi den AI als "feindlech" sollt interpretéieren " (oder, vläicht amplaz). Zousätzlech, och wa mir entscheeden eng Human-in-the-Loop Bestëmmung opzehuelen, kann d'Onberechenbarkeet vun der AI bedeiten datt wann den AI soll mam Mënsch-in-the-Loop konferenzéieren, et net fäerdeg ass. sou an handelt ouni mënschlech Interventioun.

Dir kënnt interesséieren datt den Internationale Comité vum Roude Kräiz (ICRC) eng dräi-Punkt iwwergräifend Positioun iwwer autonom Waffesystemer offréiert huet, déi dës Zorte vu Bedenken ausbaut (pro ICRC Websäit):

1. "Onberechenbar autonom Waffesystemer sollen ausdrécklech regéiert ginn aus, notamment wéinst hirer ondifferenzéierter Effekter. Dëst wier am beschten erreecht mat engem Verbuet vun autonome Waffesystemer, déi op eng Manéier entwéckelt oder benotzt ginn, datt hir Effekter net genuch verstanen, virausgesot an erkläert kënne ginn.

2. "Am Liicht vun etheschen Iwwerleeungen fir d'Mënschheet ze schützen, an d'international humanitär Gesetz Regele fir de Schutz vun Zivilisten a Kämpfer hors de combat z'erhalen, Notzung vun autonome Waffesystemer fir Mënschen ze zielen soll ausgeschloss ginn. Dëst wier am beschten duerch e Verbuet vun autonome Waffesystemer erreecht ginn, déi entwéckelt oder benotzt gi fir Gewalt géint Persounen auszeüben.

3. "Fir Zivilisten an zivilen Objeten ze schützen, d'Regele vum internationale humanitäre Gesetz z'erhalen an d'Mënschheet ze schützen, soll den Design an d'Benotzung vun autonome Waffesystemer, déi net verbueden sinn, geregelt ginn, och duerch eng Kombinatioun vun: Grenzen op d'Zorten vun Ziler, sou wéi se op Objeten ze beschränken, déi vun Natur militäresch Ziler sinn; Grenzen op d'Dauer, de geographeschen Ëmfang an d'Skala vum Gebrauch, och fir mënschlech Uerteel a Kontroll a Relatioun zu engem spezifeschen Attack z'erméiglechen; Limiten op Benotzungssituatiounen, sou wéi se op Situatiounen ze beschränken, wou Zivilisten oder zivil Objeten net präsent sinn; rUfuerderunge fir Mënsch-Maschinn Interaktioun, notamment fir effektiv mënschlech Iwwerwaachung ze garantéieren, a fristgerecht Interventioun an Deaktivéierung.

Op engem verwandte Perspektiv hunn d'Vereenten Natiounen (UN) iwwer d'Konventioun iwwer bestëmmte konventionelle Waffen (CCW) zu Genf eelef net-bindende Guiding Prinzipien iwwer lethal Autonom Waffen etabléiert, sou wéi den offiziellen Bericht online gepost (enthält Referenzen op pertinent International Humanitär) Gesetz oder IHL Viraussetzungen):

(a) International humanitär Gesetz gëlt weider voll op all Waffesystemer, dorënner d'potenziell Entwécklung an d'Benotzung vu fatale autonome Waffesystemer;

(b) Mënschlech Verantwortung fir Entscheedungen iwwer d'Benotzung vu Waffesystemer musse behalen ginn, well d'Rechenschaftspflicht net op Maschinnen iwwerdroe ka ginn. Dëst soll iwwer de ganze Liewenszyklus vum Waffesystem berücksichtegt ginn;

(c) Mënsch-Maschinn Interaktioun, déi verschidde Formen kann huelen an a verschiddene Stadien vum Liewenszyklus vun enger Waff ëmgesat ginn, soll suergen datt d'potenziell Notzung vu Waffesystemer baséiert op opkomende Technologien am Beräich vun de fatale autonome Waffesystemer an Konformitéit mam applicabelen internationale Recht, besonnesch IHL. Bei der Bestëmmung vun der Qualitéit an der Ausmooss vun der Mënsch-Maschinn Interaktioun, sollt eng Rei vu Faktoren berücksichtegt ginn, och den operationelle Kontext, an d'Charakteristiken a Fäegkeeten vum Waffesystem als Ganzt;

(d) Verantwortung fir d'Entwécklung, d'Deployment an d'Benotzung vun all opkomende Waffesystem am Kader vum CCW muss am Aklang mat applicabel internationale Gesetz geséchert ginn, och duerch d'Operatioun vun esou Systemer bannent enger verantwortlecher Kette vu mënschleche Kommando a Kontroll;

(e) Am Aklang mat Verpflichtungen vun de Staaten ënner internationalem Gesetz, an der Studie, Entwécklung, Acquisitioun oder Adoptioun vun enger neier Waff, Mëttel oder Method vu Krichsféierung, muss Bestëmmung gemaach ginn ob seng Beschäftegung, an e puer oder all Ëmstänn, wäert sinn. vum internationale Gesetz verbueden;

(f) Wann Dir nei Waffensystemer entwéckelt oder kaaft op Basis vun opkomende Technologien am Beräich vun tödlechen autonome Waffesystemer, kierperlech Sécherheet, passend net-kierperlech Sécherheetsmoossnamen (inklusiv Cyber-Sécherheet géint Hacking oder Datespoofing), de Risiko vun der Acquisitioun vun Terrorgruppen an de Risiko vun Verbreedung soll considéréiert ginn;

(g) Risiko Bewäertungen a Mitigéierungsmoossname sollen Deel vum Design, Entwécklung, Testen an Deployment Zyklus vun opkomende Technologien an all Waffesystemer sinn;

(h) Berücksichtegt soll d'Benotzung vun opkomende Technologien am Beräich vun tödlechen autonome Waffesystemer fir d'Konformitéit mat IHL an aner applicabel international gesetzlech Verpflichtungen z'erhalen;

(i) Beim Handwierk vun potenziellen politesche Moossnamen, opkomende Technologien am Beräich vun fatale autonome Waffesystemer sollten net anthropomorphiséiert ginn;

(j) Diskussiounen an all potenziell politesch Moossnamen, déi am Kontext vum CCW geholl ginn, däerfen de Fortschrëtt an den Zougang zu friddleche Gebrauch vun intelligenten autonomen Technologien net behënneren;

(k) De CCW bitt e passende Kader fir d'Thema vun opkomende Technologien am Beräich vun de fatale autonome Waffesystemer am Kontext vun den Ziler an Zwecker vun der Konventioun ze këmmeren, déi probéiert e Gläichgewiicht tëscht militäresch Noutwennegkeet an humanitär Iwwerleeungen ze treffen.

De Quandary Mir befannen eis

Dës verschidde Gesetzer vum Krich, Gesetzer vum bewaffnete Konflikt oder IHL (International Humanitär Gesetzer) déngen als e vitalen an ëmmer verspriechende Guide fir ze berécksiichtegen wat mir probéieren iwwer d'Entstoe vun autonome Systemer ze maachen déi bewaffnet sinn, sief et duerch Keystone Design oder duerch no-der-Tatsaach Methoden.

Mir kënnen oprecht wënschen, datt e Verbuet op déidlech bewaffnet autonom Systemer strikt an gehorsam observéiert gëtt. De Problem ass, datt vill wiggle Raum ass gebonnen ze slyly bannent engem vun de stäerkste oprecht vun Verbuet fonnt ginn. Wéi se soen, Regele solle gebrach ginn. Dir kënnt wetten, datt wou d'Saache loose-goosey sinn, Riffraff Lücken ausféieren a probéieren de Wee ronderëm d'Regelen ze wink-wink.

Hei sinn e puer potenziell Schleifen, déi ze berücksichtegen:

  • Fuerderungen vun Net-LethalAn. Maacht net fatal autonom Waffen Systemer (anscheinend okay, well et ausserhalb vun der Verbuet Grenz ass), déi Dir dann op engem Zénger Verréckelung zu engem ginn fatal (Dir wäert nëmmen iwwer de Verbuet an der leschter Minutt ginn).
  • Fuerderungen vun Autonom System Nëmmen. Erhalen de Verbuet andeems Dir net fatal fokusséiert autonom Systemer mécht, mëttlerweil, maacht sou vill Fortschrëtter fir alldeeglech autonom Systemer z'entwéckelen déi net (nach) bewaffnet sinn, awer datt Dir op engem Zénger Retrofit a bewaffnete kënnt.
  • Fuerderungen vun Net Integréiert Als One. Handwierk autonom Systemer déi guer net bewaffnet sinn, a wann d'Zäit kënnt, piggyback Waffnisatioun sou datt Dir probéiert vehement ze streiden datt se zwee separat Elementer sinn an dofir streiden datt se net an der Rubrik vun engem All-in-One falen autonome Waffesystem oder säi Cousin.
  • Fuerdert datt et net autonom ass. Maacht e Waffsystem deen net vun autonome Kapazitéiten schéngt. Loosst Plaz an dësem viraussiichtlech net-autonome System fir d'Ofdreiwung vun AI-baséiert Autonomie. Wann néideg, Plug an der Autonomie an Dir sidd bereet ze rullen (bis dohin, anscheinend hutt Dir de Verbuet net verletzt).
  • aner

Et gi vill aner ausgedréckte Schwieregkeeten mam Versuch, déidlech autonom Waffesystemer direkt ze verbidden. Ech wäert e puer méi vun hinnen Cover.

E puer Pundits argumentéieren datt e Verbuet net besonnesch nëtzlech ass an amplaz et reglementaresche Bestëmmunge solle ginn. D'Iddi ass datt dës Contraptioune erlaabt sinn, awer streng poléiert. Eng Litanei vu gesetzleche Gebrauch ass ausgeluecht, zesumme mat gesetzleche Weeër fir ze zielen, gesetzlech Aarte vu Fäegkeeten, gesetzleche Proportionalitéit, an dergläiche.

Hirer Meenung no ass e riichtaus Verbuet wéi de Kapp an de Sand ze leeën a maachen wéi wann den Elefant am Raum net gëtt. Dës Sträit kritt awer d'Blutt kachen vun deenen, déi mat dem Argument entgéintgoen, datt Dir andeems Dir e Verbuet anzeféieren fäeg ass déi soss Versuchung dramatesch ze reduzéieren fir dës Aarte vu Systemer ze verfolgen. Sécher, e puer wäerten de Verbuet flauntéieren, awer op d'mannst hoffentlech déi meescht net. Dir kënnt dann Är Opmierksamkeet op d'flaunters konzentréieren an net Är Opmierksamkeet op jiddereen ze splinteren.

Ronn an Ronn ginn dës Debatten.

Eng aner dacks bemierkt Suerg ass datt och wann dat Gutt dem Verbuet hält, déi Schlecht net. Dëst setzt de Gutt an enger schlechter Haltung. Déi Schlecht wäerten dës Aarte vu bewaffnete autonome Systemer hunn an déi Gutt net. Wann d'Saachen opgedeckt ginn datt déi Schlecht se hunn, ass et ze spéit fir déi Gutt ze halen. Kuerz gesot, déi eenzeg intelligent Saach ze maachen ass ze preparéieren fir Feier mat Feier ze bekämpfen.

Et gëtt och déi klassesch Ofschreckungsstreit. Wann déi Gutt entscheeden fir bewaffnete autonom Systemer ze maachen, kann dëst benotzt ginn fir déi Schlecht ofzeschléissen fir an engem Sträit ze kommen. Entweder déi Gutt wäerte besser bewaffnet sinn an doduerch déi Schlecht ofhalen, oder déi Gutt wäerte bereet sinn wann déi Schlecht vläicht enthüllen datt se déi Systemer déi ganzen Zäit heemlech ausgeschafft hunn.

E Konter zu dëse Konter ass datt andeems Dir bewaffnet autonom Systemer mécht, Dir eng Waffencourse mécht. Déi aner Säit wäert sichen déi selwecht ze hunn. Och wa se technologesch net fäeg sinn esou Systemer nei ze kreéieren, kënnen se elo d'Pläng vun de "Gutt" klauen, d'High-Tech-Darm ëmgedréint oder imitéieren wat se schéngen als probéiert-a-richteg ze gesinn. Manéier d'Aarbecht gemaach ze kréien.

Aha, e puer Retort, all dëst kéint zu enger Reduktioun vu Konflikter féieren duerch eng Scheinheet vu géigesäiteg. Wann d'Säit A weess datt d'Säit B déi fatal autonom Systemer Waffen huet, an d'Säit B weess datt d'Säit A se huet, da kënne se enk sëtzen an net zu Schlag kommen. Dëst huet déi ënnerschiddlech Aura vu mutually assured Destruction (MAD) Vibes.

A sou weider.

D'AI an der Autonomie

Loosst eis sécher sinn datt mir op der selwechter Säit iwwer d'Natur vun der heiteger AI sinn.

Et gëtt keng AI haut déi sentient ass. Mir hunn dat net. Mir wëssen net ob sentient AI méiglech wäert sinn. Keen kann passend viraussoen ob mir sentient AI erreechen, an och net ob sentient AI iergendwéi wonnerbar spontan an enger Form vu computational kognitiver Supernova entstinn (normalerweis als Singularitéit bezeechent, kuckt meng Ofdeckung op de Link hei).

D'Aart vun AI op déi ech fokusséiere besteet aus der net-sentienten AI déi mir haut hunn. Wa mir wëlle wëlle spekuléieren iwwer sensibel AI, dës Diskussioun kéint an eng radikal aner Richtung goen. Eng sentient AI wier anscheinend vu mënschlecher Qualitéit. Dir musst berücksichtegen datt de sentienten AI de kognitiven Äquivalent vun engem Mënsch ass. Méi esou, well e puer spekuléiere kënne mir super-intelligent AI hunn, ass et denkbar datt sou AI schlussendlech méi schlau ka sinn wéi Mënschen (fir meng Exploratioun vu super-intelligenten AI als Méiglechkeet, kuckt d'Ofdeckung hei).

Loosst eis d'Saache méi erof op d'Äerd halen a betruechten haut computational net-sentient AI.

Realiséiere datt d'AI vun haut net fäeg ass op iergendeng Manéier ze "denken" par rapport zum mënschlechen Denken. Wann Dir mat Alexa oder Siri interagéiert, kënnen d'Gespréichskapazitéiten ähnlech wéi mënschlech Fäegkeeten schéngen, awer d'Realitéit ass datt et computational ass a mënschlech Erkenntnis feelt. Déi lescht Ära vun AI huet extensiv Notzung vu Machine Learning (ML) an Deep Learning (DL) gemaach, déi computational Muster Matching profitéieren. Dëst huet zu AI Systemer gefouert, déi d'Erscheinung vu mënschlechähnleche Proclivitéiten hunn. Mëttlerweil gëtt et haut keng AI déi e Gesinn vu gesonde Mënscheverstand huet an och keng vun der kognitiver Wonnerung vu robustem mënschlecht Denken.

Sidd ganz virsiichteg fir den haitegen AI ze anthropomorphiséieren.

ML / DL ass eng Form vu computational Muster Matching. Déi üblech Approche ass datt Dir Daten iwwer eng Entscheedungsaarbecht sammelt. Dir fiddert d'Donnéeën an d'ML / DL Computermodeller. Dës Modeller sichen mathematesch Mustere ze fannen. Nodeems Dir esou Mustere fonnt hutt, wa se fonnt goufen, benotzt den AI System dann dës Mustere wann Dir nei Daten begéint. No der Presentatioun vun neien Donnéeën ginn d'Muster op Basis vun den "alen" oder historeschen Donnéeën ugewannt fir eng aktuell Entscheedung ze maachen.

Ech mengen, Dir kënnt roden, wou dat geet. Wann d'Mënschen, déi d'Muster op Entscheedunge getraff hunn, ongewollt Biases integréiert hunn, sinn d'Chancen datt d'Donnéeën dëst op subtile awer bedeitende Weeër reflektéieren. Machine Learning oder Deep Learning computational Muster Matching wäert einfach probéieren d'Donnéeën deementspriechend mathematesch ze mimikéieren. Et gëtt kee Gesinn vu gesonde Mënscheverstand oder aner sentienten Aspekter vun der AI erstallt Modeller per se.

Ausserdeem kënnen d'AI Entwéckler och net realiséieren wat lass ass. Déi arcane Mathematik am ML / DL kéint et schwéier maachen déi elo verstoppte Biases erauszekréien. Dir géift mat Recht hoffen an erwaarden datt d'AI Entwéckler fir déi potenziell begruewe Biases testen, obwuel dëst méi komplizéiert ass wéi et schéngt. Eng zolitt Chance existéiert datt och mat relativ extensiv Tester datt et Biases nach ëmmer an de Muster passend Modeller vun der ML / DL agebonne sinn.

Dir kënnt e bëssen de berühmten oder berühmte Spréchwuert vun Gerempels-an Dreck-eraus benotzen. D'Saach ass, dëst ass méi ähnlech wéi Biases-an déi süchteg infuséiert ginn wéi Biases ënner dem AI ënnerdaach. Den Algorithmus Entscheedungsprozess (ADM) vun AI gëtt axiomatesch mat Ongläichheeten belaascht.

Net gutt.

Mat deem zousätzleche Fundamental Hannergrond wende mir nach eng Kéier op déi autonom Systemer a Waffungsthema. Mir hu virdru gesinn datt d'AI an den autonome Systemkomponent erakënnt an och an d'Waffenungskomponent kënnt. D'AI vun haut ass net sentient. Dëst ass et wäert ze widderhuelen an ech wäert dëst Highlight fir zousätzlech Abléck an dës Saache.

Loosst eis e puer Szenarie entdecken fir ze kucken wéi dëst eng entscheedend Iwwerleeung ass. Ech wäert Moment aus enger Krichszäit Orientatioun op dëst Thema schalt a weisen wéi et vill aner sozial Milieu permeates. Steady selwer deementspriechend.

En AI-baséiert autonom System wéi en autonomt Gefier, dat mir soen, huet näischt mat Waffen ze dinn, mécht säi Wee duerch eng normal Lokalitéit. E Mënsch kënnt laanscht fir den autonomen Gefier ze benotzen. D'Persoun ass mat enger Viraussiichtswaff bewaffnet. Ugeholl fir d'Diskussioun an dësem speziellen Szenario datt d'Persoun eppes ongewollt am Kapp huet. D'Persoun geet an dat autonomt Gefier (hir Waff droen, verstoppt oder net verstoppt, entweder Manéier).

Den autonome Gefier fiert op egal wéi eng Destinatioun déi de Fuerer gefrot huet. An dësem Fall dréit d'AI einfach programmatesch dëse Passagéier vun engem Pickup-Plaz op eng designéiert Destinatioun, sou wéi et fir méiglecherweis Dosende oder Honnerte vu Reesen all Dag gemaach huet.

Wann dëst e mënschleche Chauffer an e Mënsch ugedriwwe Gefier gewiescht wier, ass et viraussiichtlech eng Chance datt de mënschleche Chauffer mierken datt de Passagéier bewaffnet ass a schéngt ongewollt Intentiounen ze hunn. De mënschleche Chauffer kéint refuséieren mam Gefier ze fueren. Oder de mënschleche Chauffer kéint op de Policebüro fueren. Oder vläicht kéint de mënschleche Chauffer probéieren de bewaffnete Passagéier z'ënnerwerfen (gemellt Fäll existéieren) oder de Passagéier ofzehalen hir Waff ze benotzen. Et ass zimlech komplizéiert, an all Zuel vu Variatiounen kann existéieren. Dir wier schwéier gedréckt ze behaapten datt et nëmmen eng richteg Äntwert gëtt fir sou e Problem ze léisen. Leider ass d'Situatioun erschreckend an offensichtlech geféierlech.

D'AI an dësem Fall ass onwahrscheinlech fir eng vun dësen Aarte vu Méiglechkeeten programméiert ze ginn. Kuerz gesot, de bewaffnete Passagéier kéint hir Waff benotzen, dat aus dem autonome Gefier, während der Fahrrees. Den AI Fueresystem wäert weiderfueren an dat autonomt Gefier wäert weider op déi uginn Bezeechnung vum Passagéier goen (ugeholl datt d'Destinatioun soss net ausserhalb vun der Grenz ugesi gouf).

Déi meescht zäitgenëssesch AI Fueresystemer wäerte sech nëmme berechnen op d'Strooss konzentréieren an net op d'Efforte vum Reider.

Saache kënne méi schlëmm ginn wéi dëst.

Stellt Iech vir, datt een eng Rëtsch Liewensmëttel op eng Plaz transportéiere wëllt, déi extra Iessen fir déi Bedierfnes hëlt. D'Persoun freet en autonomt Gefier a setzt d'Täsche mat Epicerie an de Récksëtz vum Gefier. Si ginn net mat op d'Fuert a benotze just den autonome Gefier fir d'Iesssäck fir si ze liwweren.

Schéngt perfekt gutt.

Stellt Iech vir datt eng schrecklech Persoun amplaz entscheet eng Form vu Waffung an dat autonomt Gefier ze placéieren anstatt déi méi friddlech Notioun vun Epicerie Poschen. Ech mengen Dir kënnt roden wat geschéie kéint. Dëst ass eng Suerg, déi ech ëmmer erëm a menge Kolonnen gefuerdert hunn a virwarnung datt mir eis éischter wéi spéider musse këmmeren.

Eng proposéiert Äntwert op dës Aarte vu Szenarie ass datt vläicht all autonom Gefierer programméiert kënne ginn fir hir Kameraen an aner Sensoren ze benotzen fir ze probéieren z'entdecken ob e potenzielle Passagéier bewaffnet ass an onnéideg Intentiounen huet. Vläicht wier d'AI programméiert fir dëst ze maachen. Oder den AI alarméiert elektronesch a roueg e Remote mënschleche Bedreiwer deen dann iwwer d'Kameraen visuell an soss ënnersicht an eventuell mam Passagéier interagéiere géif. Et ass alles Deel vun enger komplexer a potenziell intractable Dose vu Würmer, sou datt et intensiv Privatsphärprobleemer an eng Onmass vun anere potenziellen etheschen AI Bedenken ophëlt. Gesinn meng Ofdeckung op de Link hei.

Eng aner e bësse ähnlech Alternativ ass datt d'AI eng Aart vun embedded Ethik Programméierung enthält, déi probéiert den AI z'erméiglechen ethesch oder moralesch Uerteeler ze maachen, déi normalerweis fir mënschlech Entscheedungsprozesser reservéiert sinn. Ech hunn dës Brauarten vun AI-embedded computational Ethik Prognostiker ënnersicht, kuckt de Link hei an de Link hei.

Zréck op e Schluechtfeld Szenario, virstellen datt e fatale autonome Waffesystem iwwer eng Kampfzone kräizt. Den AI bedreift den autonome System. D'AI bedreift d'Waffen u Bord. Mir hate virdru d'Méiglechkeet geduecht datt d'AI programméiert ka ginn fir scheinbar feindlech Bewegungen oder aner Indikatoren vu mënschlechen Ziler ze scannen, déi als valabel Kämpfer ugesi ginn.

Sollt dës selwescht AI eng Aart vun ethesch orientéierter Komponent hunn, déi beméit sech berechent ze berücksichtegen wat e Mënsch-an-der-Loop maache kann, an engem Sënn handelen anstatt e Mënsch-an-der-Loop ze hunn?

E puer soen jo, loosst eis dëst weiderféieren. E puer réckelen an Horror a soen datt et entweder onméiglech ass oder soss d'Hellegkeet vun der Mënschheet verletzt.

Nach eng aner Dose Würmer.

Konklusioun

Fir déi vun iech, déi un dësem Thema interesséiert sinn, gëtt et vill méi ze diskutéieren.

Ech ginn Iech e séiere Goût vun engem knaschtege Conundrum.

Mir erwaarden normalerweis datt e Mënsch schlussendlech verantwortlech gemaach gëtt fir alles wat während der Krichszäit geschitt. Wann AI en autonome Waffesystem kontrolléiert oder en autonome System kontrolléiert, dee méiglecherweis bewaffnet ass, an dëse System mécht eppes um Schluechtfeld, dee gegleeft ass onbewosst ze sinn, wien oder wat ass fir dëst zouzeschreiwen?

Dir kéint streiden datt AI verantwortlech gehale soll ginn. Awer wa jo, wat heescht dat genee? Mir betruechten d'AI vun haut nach net als d'Ausféierung vun der juristescher Persoun, kuckt meng Erklärung op de Link hei. Keen de Schwanz op den Iesel am Fall vun der AI. Vläicht wann AI enges Daags sentient gëtt, kënnt Dir probéieren dat ze maachen. Bis dohinner ass dëst e bëssen erreechbar (plus, wéi eng Strofe oder Auswierkunge wier den AI ënnerworf, kuckt meng Analyse op de Link hei an de Link hei, zum Beispill).

Wann den AI net de verantwortleche Verdächtegen ass, kënne mir dann natierlech soen datt egal wat Mënsch oder Mënschen den AI entwéckelt hunn, verantwortlech gemaach ginn. Kënnt Dir dëst maachen wann d'AI just en autonome System bedreift an e puer Mënschen ukomm sinn, déi et mat der Waffung gekoppelt hunn? Gitt Dir no den AI Entwéckler? Oder déi, déi den AI ofgesat hunn? Oder just de Waffenschauspiller?

Ech vertrauen datt Dir d'Iddi kritt, datt ech a menger häerzlecher Diskussioun nëmmen den Tipp vum Äisbierg beréiert hunn.

Fir elo, loosst eis viru goen an dësen Discours ofschléissen. Dir kënnt Iech erënneren datt de John Lyly an Euphues: The Anatomy Of Wit an 1578 memorably gesot, datt alles an Léift a Krich fair ass.

Hätt hien d'Entstoe vun autonome Waffesystemer an och d'Erscheinung vun autonome Systemer, déi bewaffnet sinn, am Kapp?

Mir mussen dat sécherlech direkt un de Kapp setzen.

Quell: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- Waffesystemer-an-d'Ausbeutung-vun-Ai-driven-autonome-Systemer-déi-däiwelsch-waffiséiert sinn/