AI Ethik An AI Gesetz Klärung Wat Tatsächlech Vertrauenswierdeg AI ass

Vertrauen ass alles, sou se soen.

De bekannte Philosoph Lao Tzu sot datt déi, déi net genuch vertrauen, net vertraut ginn. Den Ernest Hemingway, e geschätzte Romaner, huet gesot datt de beschte Wee fir erauszefannen ob Dir iergendeen vertraue kënnt ass andeems Dir hinnen Vertrauen.

Mëttlerweil schéngt et datt Vertrauen souwuel wäertvoll a brécheg ass. D'Vertrauen, déi een huet, ka wéi e Kaartenhaus zesummeklappen oder op eemol platzen wéi e geklappte Ballon.

Den antike griicheschen Tragedien Sophokles huet behaapt datt Vertrauen stierft awer Mësstrauen bléie. De franséische Philosoph a Mathematiker Descartes huet behaapt datt et virsiichteg ass ni déi ganz ze trauen déi eis souguer eng Kéier täuscht hunn. Milliardär Geschäftsinvestor Extraordinaire Warren Buffett huet gefuerdert datt et zwanzeg Joer dauert fir e vertrauenswürdege Ruff ze bauen a fënnef Minutten ze ruinéieren.

Dir kënnt iwwerrascht sinn ze wëssen datt all dës variéiert Meenungen a provokativ Meenungen iwwer Vertrauen entscheedend sinn fir d'Entstoe vu Kënschtlech Intelligenz (AI).

Jo, et gëtt eppes scharf genannt vertrauenswierdeg AI dat hält ëmmer vill Opmierksamkeet dës Deeg, inklusiv handwringing Catcals aus dem Feld vun AI an och boisterous Ausbréch vun deenen ausserhalb vum AI Räich. Déi allgemeng Notioun enthält ob d'Gesellschaft gewëllt ass Vertrauen an d'Léift vun AI Systemer ze setzen.

Wahrscheinlech, wann d'Gesellschaft AI net wäert oder kann net vertrauen, sinn d'Chancen datt AI Systemer net Traktioun kréien. AI wéi mir et am Moment kennen, gëtt op der Säit gedréckt a sammelt just Stëbs. Schockéierend konnt AI op de Junkkoup ophalen, historesch op näischt méi wéi e verzweifelt probéiert, awer spektakulär gescheitert High-Tech Experiment zréckgezunn. All Efforte fir d'AI ze restauréieren géif potenziell eng enorm biergof Schluecht konfrontéieren a gestoppt ginn duerch all Manéier vun Objektiounen a direkte Protester. Anscheinend wéinst engem Manktem u Vertrauen an AI.

Wat soll et sinn, solle mir op AI vertrauen, oder solle mir net op AI vertrauen?

Am Wesentlechen, wäerte mir wierklech vertrauenswierdeg AI hunn?

Dat si fréier an ongeléist Froen. Loosst eis et auspaken.

AI Ethik an de Kampf fir vertrauenswierdeg AI

D'Iwwerzeegung vu ville bannent AI ass datt d'Entwéckler vun AI Systemer Vertrauen an AI kënne sammelen andeems se entspriechend AI entwéckelt, déi vertrauenswierdeg ass. D'Essenz ass datt Dir net hoffe kënnt Vertrauen ze gewannen wann AI net anscheinend zouverlässeg ass um Ufank. Andeems Dir AI Systemer op eng Manéier erstallt, déi als vertrauenswierdeg ugesi gëtt, ass et eng zolitt Chance datt d'Leit AI akzeptéieren an AI benotzen.

Eng qualm déi scho bei dëser vertrauenswierdeger AI Iwwerleeung nagelt ass datt mir scho vläicht an engem sinn ëffentlech Vertrauensdefizit wann et ëm AI kënnt. Dir kënnt soen datt den AI, dee mir scho gesinn hunn, e Lach gegruewen huet an a massive Quantitéite Vertrauen ofgerappt huet. Also, anstatt op enger genuch Basis vun der Vertrauenswäertegkeet unzefänken, wäert AI iwwerraschend aus dem Defizit klammen, fir all gewënschten Unze vun zousätzlech Vertrauen ze klauen, déi gebraucht gëtt fir d'Leit ze iwwerzeegen datt AI tatsächlech vertrauenswierdeg ass.

An dës Erausfuerderung kënnt AI Ethik an AI Gesetz.

AI Ethik an AI Gesetz kämpfen staark mam Versuch erauszefannen wat et brauch fir AI vertrauenswierdeg ze maachen. E puer suggeréieren datt et eng Formel oder Eisebunnsgesetzer gëtt déi AI an de vertrauenswürdege Himmel kréien. Anerer weisen datt et haart Aarbecht a konsequent an onermiddlechen Anhale vun AI Ethik an AI Gesetz Prinzipien wäert huelen fir de gewënschte Vertrauen vun der Gesellschaft ze kréien.

Déi zäitgenëssesch Enigma iwwer Vertrauen an AI ass net besonnesch nei per se.

Dir kënnt ganz einfach zréck an d'Enn vun den 1990er Joren zréckgoen an d'Entstoe vun engem gesichte Wonsch no "vertrauenswürdege Rechen" aus deenen Deeg verfollegen. Dëst war e grousst Skala Tech-Industrie Effort fir z'ënnerscheeden ob Computeren all gesot kéinte gemaach ginn op eng Manéier déi vun der Gesellschaft als vertrauenswierdeg interpretéiert gëtt.

Schlëssel Froen bestoung aus:

  • Konnt Computer Hardware esou gemaach ginn datt et zouverléisseg war?
  • Konnt Software esou erstallt ginn datt et zouverlässeg war?
  • Kënne mir global vernetzte Computere setzen déi vertrauenswierdeg wieren?
  • A sou weider.

Dat herrschend Gefill deemools an dat geet bis haut weider ass datt vertrauenswierdeg Informatik eng Aart vu hellege Graal bleift, déi leider nach ëmmer net ganz an eiser Erreeche ass (wéi an engem Pabeier mam Titel "Trustworthy AI" an der Kommunikatioun vun der ACM). Dir kéint iwwerzeegend argumentéieren datt AI nach e weidere Bestanddeel vun der Informatikvertrauensenveloppe ass, awer AI mécht d'Vertrauensverfolgung nach méi Erausfuerderung an onsécher. AI ass de potenzielle Spoiler am Kampf fir zouverlässeg Informatik z'erreechen ginn. Eventuell de schwaachste Link an der Kette, wéi et war.

Loosst eis e séiere Bléck op firwat AI eis Dander opgestan huet iwwer manner wéi vertrauenswierdeg ze sinn. Zousätzlech wäerte mir d'Tenets vun der AI Ethik entdecken, déi gehofft ginn, hëllefe fir dat scho semi-Ënnerwasser erkannt Vertrauen (oder spruddelend Mësstrauen) vun der heiteger AI z'ënnerstëtzen. Fir meng lafend an extensiv Ofdeckung vun AI Ethik, kuckt de Link hei an de Link hei, Just e puer ze Numm.

E bestëmmte Segment oder Deel vun der AI Ethik, déi vill Medienopmierksamkeet kritt huet, besteet aus AI déi ongerecht Biases an Ongläichheeten ausweist. Dir sidd vläicht bewosst datt wann déi lescht Ära vun AI ugefaang huet, et e grousse Burst vun Begeeschterung war fir wat e puer elo nennen AI Fir Gutt. Leider, op den Fersen vun där grujeleger Opreegung, hu mir ugefaang Zeien AI Fir Schlecht. Zum Beispill, verschidde AI-baséiert Gesiichtserkennungssystemer goufen opgedeckt wéi se rassistesch Biases a Geschlecht Biases enthalen, déi ech diskutéiert hunn. de Link hei.

Efforten ze kämpfen zréck géint AI Fir Schlecht aktiv ënnerwee sinn. Nieft vociferous legal Verfollegungen fir de Mëssbrauch z'erhiewen, gëtt et och e wesentleche Push fir d'AI Ethik ëmzegoen fir d'AI Vielness ze rächen. D'Notioun ass datt mir wichteg ethesch AI Prinzipien solle adoptéieren an ënnerstëtze fir d'Entwécklung an d'Feldung vun AI ze maachen fir de AI Fir Schlecht a gläichzäiteg d'Preferenz ze heraldéieren a förderen AI Fir Gutt.

Op enger verwandter Notioun sinn ech en Affekot fir ze probéieren AI als Deel vun der Léisung fir AI-Schwieregkeeten ze benotzen, Feier mat Feier ze kämpfen an där Manéier vum Denken. Mir kënnen zum Beispill Ethesch AI Komponenten an en AI System embetteren deen iwwerwaacht wéi de Rescht vun der AI d'Saache mécht an domat potenziell diskriminéierend Efforten an Echtzäit opfänken, kuckt meng Diskussioun op de Link hei. Mir kënnen och e separaten AI System hunn, deen als Typ vun AI Ethics Monitor handelt. Den AI System déngt als Iwwerwaacher fir ze verfolgen an z'entdecken wann en aneren AI an den onetheschen Ofgrond geet (kuckt meng Analyse vu sou Fäegkeeten op de Link hei).

An engem Moment wäert ech mat Iech e puer iwwergräifend Prinzipien deelen, déi AI Ethik ënnerleien. Et gi vill vun dësen Aarte vu Lëschte ronderëm hei an do. Dir kënnt soen datt et nach net eng eenzeg Lëscht vun universellen Appel a Konkurrenz ass. Dat ass déi onglécklech Noriicht. Déi gutt Noriicht ass datt op d'mannst et liicht verfügbar AI Ethics Lëschte sinn a si tendéieren zimlech ähnlech ze sinn. Alles gesot, dëst suggeréiert datt duerch eng Form vu rational Konvergenz vu verschiddenen Aarte mir eise Wee an eng allgemeng Gemeinsamkeet fannen, aus deem AI Ethik besteet.

Als éischt, loosst eis kuerz e puer vun den allgemenge etheschen AI Virschrëfte ofdecken fir ze illustréieren wat e vital Considératioun sollt sinn fir jiddereen deen AI bastelt, fält oder benotzt.

Zum Beispill, wéi gesot vum Vatikan am Rom Call Fir AI Ethik a wéi ech am-Déift Daach am de Link hei, dëst sinn hir identifizéiert sechs primär AI Ethik Prinzipien:

  • Transparenz: Am Prinzip mussen AI Systemer erklärbar sinn
  • Inclusioun: D'Bedierfnesser vun all Mënsch musse berücksichtegt ginn, fir datt jidderee profitéiere kann, an all Eenzelnen déi beschtméiglech Konditioune gebuede kréien fir sech auszedrécken an z'entwéckelen.
  • Verantwortung: Déi, déi d'Benotzung vun AI designen an ofsetzen, musse mat Verantwortung an Transparenz virgoen
  • Onpartialitéit: Schafen oder handelen net no Viraussetzungen, sou datt d'Gerechtegkeet an d'mënschlech Dignitéit ofgeséchert sinn
  • Zouverlässegkeet: AI Systemer musse fäeg sinn zouverlässeg ze schaffen
  • Sécherheet a Privatsphär: AI Systemer musse sécher funktionnéieren an d'Privatsphär vun de Benotzer respektéieren.

Wéi gesot vum US Department of Defense (DoD) an hirem Ethesch Prinzipien fir d'Benotzung vu kënschtlecher Intelligenz a wéi ech am-Déift Daach am de Link hei, dëst sinn hir sechs primär AI Ethik Prinzipien:

  • Verantwortlech: DoD Personal wäert entspriechend Niveaue vu Uerteel a Suergfalt ausüben wärend se verantwortlech bleiwen fir d'Entwécklung, d'Deployment an d'Benotzung vun AI Fäegkeeten.
  • Gerechtegkeet: D'Departement wäert bewosst Schrëtt huelen fir onbedéngt Bias an AI Fäegkeeten ze minimiséieren.
  • Tracéierbar: D'AI-Kapazitéite vum Departement ginn entwéckelt an ofgesat sou datt relevant Personal e passend Verständnis vun der Technologie, Entwécklungsprozesser, an operationelle Methoden huet, déi op AI Fäegkeeten applicabel sinn, inklusiv transparent an auditéierbar Methodologien, Datequellen, an Designprozeduren an Dokumentatioun.
  • verléisslech: Dem Departement seng AI Fäegkeeten wäerten explizit, gutt definéiert Uwendungen hunn, an d'Sécherheet, Sécherheet an d'Effizienz vun esou Fäegkeeten wäerten ënner deenen definéierte Gebrauch iwwer hire ganze Liewenszyklus Testen a Versécherung ënnerleien.
  • Regéierend: D'Departement wäert AI Fäegkeeten designen an entwerfen fir hir virgesinn Funktiounen ze erfëllen, wärend se d'Fäegkeet besëtzt fir ongewollte Konsequenzen z'entdecken an ze vermeiden, an d'Fäegkeet fir ofgebaute Systemer ze deaktivéieren oder ze deaktivéieren déi ongewollt Verhalen weisen.

Ech hunn och verschidde kollektiv Analysen vun AI Ethik Prinzipien diskutéiert, ënner anerem e Set ofgedeckt, entwéckelt vu Fuerscher, déi d'Essenz vu ville nationalen an internationalen AI Ethik Prinzipien ënnersicht a kondenséiert hunn an engem Pabeier mam Titel "The Global Landscape Of AI Ethics Guidelines" (publizéiert) an Natur), an datt meng Ofdeckung exploréiert am de Link hei, wat zu dëser Keystone Lëscht gefouert huet:

  • Transparenz
  • Gerechtegkeet & Gerechtegkeet
  • Net-Maleficenz
  • Responsabilitéit
  • Privatsphär
  • Benefizitéit
  • Fräiheet & Autonomie
  • Trust
  • Nohaltegkeet
  • Dignitéit
  • Solidaritéit

Wéi Dir direkt kéint roden, probéieren d'Spezifizitéiten déi dës Prinzipien ënnersträichen ze präziséieren, kann extrem schwéier sinn ze maachen. Nach méi esou, den Effort fir dës breet Prinzipien an eppes ganz konkret an detailléiert genuch ze maachen fir ze benotzen wann Dir AI Systemer erstallt ass och eng haart Nëss fir ze knacken. Et ass einfach insgesamt Handwaving ze maachen iwwer wat AI Ethik Viraussetzungen sinn a wéi se allgemeng observéiert solle ginn, wärend et eng vill méi komplizéiert Situatioun an der AI Kodéierung muss de richtege Gummi sinn deen op der Strooss entsprécht.

D'AI Ethik Prinzipien solle vun AI Entwéckler benotzt ginn, zesumme mat deenen, déi AI Entwécklungsefforten managen, an och déi, déi schlussendlech op AI Systemer Felder a Betreiung maachen. All Akteuren am ganzen AI Liewenszyklus vun der Entwécklung an der Notzung ginn am Kader vum Verhalen vun den etabléierten Normen vun der ethescher AI ugesinn. Dëst ass e wichtegen Highlight well déi üblech Viraussetzung ass datt "nëmmen Coderen" oder déi, déi den AI programméieren, ënnerleien un den AI Ethics Notioune ze halen. Wéi virdru gesot, et brauch en Duerf fir AI z'entwéckelen an ze feld, a fir déi d'ganz Duerf muss beherrscht sinn an un d'AI Ethik Viraussetzungen halen.

Loosst eis och sécherstellen datt mir op der selwechter Säit sinn iwwer d'Natur vun der heiteger AI.

Et gëtt keng AI haut déi sentient ass. Mir hunn dat net. Mir wëssen net ob sentient AI méiglech wäert sinn. Keen kann passend viraussoen ob mir sentient AI erreechen, an och net ob sentient AI iergendwéi wonnerbar spontan an enger Form vu computational kognitiver Supernova entstinn (normalerweis als Singularitéit bezeechent, kuckt meng Ofdeckung op de Link hei).

D'Aart vun AI op déi ech fokusséiere besteet aus der net-sentienten AI déi mir haut hunn. Wa mir wëlle wëlle spekuléieren iwwer sensibel AI, dës Diskussioun kéint an eng radikal aner Richtung goen. Eng sentient AI wier anscheinend vu mënschlecher Qualitéit. Dir musst berücksichtegen datt de sentienten AI de kognitiven Äquivalent vun engem Mënsch ass. Méi esou, well e puer spekuléiere kënne mir super-intelligent AI hunn, ass et denkbar datt sou AI schlussendlech méi schlau ka sinn wéi Mënschen (fir meng Exploratioun vu super-intelligenten AI als Méiglechkeet, kuckt d'Ofdeckung hei).

Loosst eis d'Saache méi erof op d'Äerd halen a betruechten haut computational net-sentient AI.

Realiséiere datt d'AI vun haut net fäeg ass op iergendeng Manéier ze "denken" par rapport zum mënschlechen Denken. Wann Dir mat Alexa oder Siri interagéiert, kënnen d'Gespréichskapazitéiten ähnlech wéi mënschlech Fäegkeeten schéngen, awer d'Realitéit ass datt et computational ass a mënschlech Erkenntnis feelt. Déi lescht Ära vun AI huet extensiv Notzung vu Machine Learning (ML) an Deep Learning (DL) gemaach, déi computational Muster Matching profitéieren. Dëst huet zu AI Systemer gefouert, déi d'Erscheinung vu mënschlechähnleche Proclivitéiten hunn. Mëttlerweil gëtt et haut keng AI déi e Gesinn vu gesonde Mënscheverstand huet an och keng vun der kognitiver Wonnerung vu robustem mënschlecht Denken.

ML / DL ass eng Form vu computational Muster Matching. Déi üblech Approche ass datt Dir Daten iwwer eng Entscheedungsaarbecht sammelt. Dir fiddert d'Donnéeën an d'ML / DL Computermodeller. Dës Modeller sichen mathematesch Mustere ze fannen. Nodeems Dir esou Mustere fonnt hutt, wa se fonnt goufen, benotzt den AI System dann dës Mustere wann Dir nei Daten begéint. No der Presentatioun vun neien Donnéeën ginn d'Muster op Basis vun den "alen" oder historeschen Donnéeën ugewannt fir eng aktuell Entscheedung ze maachen.

Ech mengen, Dir kënnt roden, wou dat geet. Wann d'Mënschen, déi d'Muster op Entscheedunge getraff hunn, ongewollt Biases integréiert hunn, sinn d'Chancen datt d'Donnéeën dëst op subtile awer bedeitende Weeër reflektéieren. Machine Learning oder Deep Learning computational Muster Matching wäert einfach probéieren d'Donnéeën deementspriechend mathematesch ze mimikéieren. Et gëtt kee Gesinn vu gesonde Mënscheverstand oder aner sentienten Aspekter vun der AI erstallt Modeller per se.

Ausserdeem kënnen d'AI Entwéckler och net realiséieren wat lass ass. Déi arcane Mathematik am ML / DL kéint et schwéier maachen déi elo verstoppte Biases erauszekréien. Dir géift mat Recht hoffen an erwaarden datt d'AI Entwéckler fir déi potenziell begruewe Biases testen, obwuel dëst méi komplizéiert ass wéi et schéngt. Eng zolitt Chance existéiert datt och mat relativ extensiv Tester datt et Biases nach ëmmer an de Muster passend Modeller vun der ML / DL agebonne sinn.

Dir kënnt e bëssen de berühmten oder berühmte Spréchwuert vun Gerempels-an Dreck-eraus benotzen. D'Saach ass, dëst ass méi ähnlech wéi Biases-an déi süchteg infuséiert ginn wéi Biases ënner dem AI ënnerdaach. Den Algorithmus Entscheedungsprozess (ADM) vun AI gëtt axiomatesch mat Ongläichheeten belaascht.

Net gutt.

Loosst eis dëst un d'Fro iwwer vertrauenswierdeg AI verbannen

Mir schéngen sécher net gewëllt ze sinn AI ze trauen déi negativ Biases an diskriminatoresch Handlungen weist. Eis Iwwerzeegung, an deem Fall, wier datt esou AI entscheedend net zouverlässeg ass, also wäerte mir op d'AI aktiv mësstrauen. Ouni iwwer Bord op en anthropomorphesche Verglach ze goen (ech soen an engem Moment méi iwwer AI Anthropomorphiséierung), e Mënsch, deen ongerecht Biases ausgestallt huet, wier och ënnerleien ze bewäerten als net besonnesch zouverlässeg.

An Vertrauen a Vertrauen graven

Vläicht sollte mir kucken wat mir mengen wa mir behaapten datt mir een oder eppes vertrauen oder net. Als éischt, betruecht e puer alldeeglech Wierderbuch Definitioune vu Vertrauen.

Beispiller vu wat Vertrauen definitioun bedeit sinn:

  • Assuréiert Vertrauen op de Charakter, d'Fäegkeet, d'Kraaft oder d'Wahrheet vun engem oder eppes (Merriam-Webster Online Wierderbuch).
  • Vertrauen op d'Integritéit, d'Kraaft, d'Fäegkeet, d'Sëcherheet, asw., vun enger Persoun oder Saach (Dictionary.com)
  • Fest Glawen un d'Zouverlässegkeet, d'Wourecht, d'Fäegkeet oder d'Kraaft vun engem oder eppes (Oxford Sproochen Online Wierderbuch).

Ech wëll drop hiweisen datt all déi Definitiounen op "een" bezéien an och op "eppes" bezéien als potenziell vertrauenswierdeg. Dëst ass bemierkenswäert well e puer kënnen insistéieren datt mir nëmme Mënschen vertrauen an datt den Vertrauensakt exklusiv fir d'Mënschheet reservéiert ass als eist Zil vun der Vertrauenswäertegkeet. Net esou. Dir kënnt Vertrauen an Ärem Kichen Toaster hunn. Wann et schéngt Ären Toast zouverlässeg ze maachen a routinéiert schafft fir dat ze maachen, kënnt Dir sécherlech e Vertrauensschein hunn ob den Toaster tatsächlech vertrauenswierdeg ass.

An därselwechter Denkenlinn kann AI och de Sujet vun eisem Vertrauenspunkt sinn. D'Chance sinn datt d'Vertrauen, déi mat AI assoziéiert ass, vill méi komplizéiert wäerte sinn wéi e weltlechen Toaster ze soen. A Toaster kann nëmmen normalerweis eng Handvoll Aktiounen maachen. En AI System ass méiglecherweis vill méi komplex a schéngt manner transparent ze bedreiwen. Eis Fäegkeet fir d'Vertrauenswieregkeet vun AI ze bewäerten an z'erkennen ass gebonnen vill méi haart ze sinn a verschidde Erausfuerderunge bidden.

Nieft just méi komplex ze sinn, gëtt gesot datt en typesche AI ​​System net-deterministesch ass a potenziell selbstreguléierend oder selbstjustéierend ass. Mir kënnen dës Notioun kuerz ënnersichen.

Eng deterministesch Maschinn tendéiert déiselwecht Saachen ëmmer erëm ze maachen, viraussiichtlech a mat engem viabel erkennbare Muster wéi et funktionnéiert. Dir kéint soen, datt e gemeinsame Toaster ongeféier déiselwecht Manéier toasts an Toastkontrolle huet, déi d'Toasting moderéieren, all déi allgemeng prévisibel sinn vun der Persoun déi den Toaster benotzt. Am Géigesaz, komplex AI Systemer ginn dacks entwéckelt fir net-deterministesch ze sinn, dat heescht datt se ganz aner Saache maache kënnen iwwer dat wat Dir soss erwaart hätt. Dëst kéint deelweis och weider verstäerkt ginn, wann d'AI geschriwwe gëtt fir sech selwer unzepassen, en Aspekt deen d'AI profitabel erlaabt am Fall vun ML / DL ze verbesseren, awer och beonrouegend verursaache kann d'AI ze falen oder an d'Ränge kommen. vun AI schlecht. Dir wësst vläicht net wat Iech getraff huet, an enger Aart a Weis ze schwätzen, well Dir vun den Handlungen vun der AI ganz ofgeschwächt gouf.

Wat kënne mir maache fir AI méi no un d'Vertrauen ze bréngen?

Eng Approche besteet aus ze versichen ze garantéieren datt déi AI bauen an opbauen un eng Rei vun AI Ethik Virschrëfte respektéieren. Wéi vun dësen AI Fuerscher ernimmt: "Vertrauen ass eng Haltung datt en Agent sech behuelen wéi erwaart a kann op vertrauen fir säin Zil z'erreechen. Vertrauen brécht no engem Feeler oder Mëssverständnis tëscht dem Agent an dem Vertrauenspersoun. De psychologesche Vertrauenszoustand an AI ass en entstanen Eegeschafte vun engem komplexe System, normalerweis mat villen Zyklen vum Design, Training, Deployment, Messung vun der Leeschtung, Reguléierung, Neidesign a Retraining involvéiert. Kommunikatioun vun der ACM, "Vertrauen, Reguléierung a Mënsch-an-der-Loop AI bannent der europäescher Regioun" vum Stuart Middleton, Emmanuel Letouze, Ali Hossaini, an Adriane Chapman, Abrëll 2022).

Den Haapt Saach ass datt wa mir AI Entwéckler kënne kréien un Ethesch AI ze halen, hoffen se endlech vertrauenswierdeg AI ze produzéieren. Dëst ass alles gutt a gutt, awer et schéngt e bëssen onpraktesch op enger realer Weltbasis, awer et ass absolut e Wee deen derwäert ass ze verfolgen.

Hei ass wat ech mengen.

Ugeholl datt e fläisseg Effort vun AI Entwéckler ënnerholl gëtt, déi en AI System fir en Zweck erstellen, dee mir allgemeng X nennen. Si suergen suergfälteg fir datt d'AI sech un d'Transparenzvirschrëfte vun der AI Ethik hält. Si suergen dofir datt d'Privatsphär passend an d'AI agebaut ass. Fir bal all déi üblech AI Ethik Prinzipien, garantéieren d'AI Builder ustrengend datt den AI dem gegebene Virschrëft entsprécht.

Sollt Dir elo deem AI vertrauen?

Erlaabt mir Iech ze hëllefen Är Gedanken iwwer déi oppe Fro ze perkoléieren.

Et stellt sech eraus datt Cyber ​​​​Crooks et fäerdeg bruecht hunn den AI z'infiltréieren an d'AI schlëmm ze kréien fir X ze maachen an awer och d'Cyber ​​Hacker all d'Donnéeën ze fidderen déi den AI sammelt. Duerch dëst ze maachen, ënnersträichen dës Béiser d'Privatsphärvirschrëft onheemlech. Dir sidd glécklech net bewosst datt dëst ënner der Hood vun AI geschitt.

Mat deem zousätzleche Stéck Informatioun stellen ech Iech nach eng Kéier déi selwecht Fro.

Vertraus du deen AI?

Ech traue mech ze soen, datt déi meescht Leit direkt géifen deklaréieren, datt se sécher maachen net Vertrauen dës speziell AI. Si hätten et vläicht virdru vertraut. Si entscheeden elo den AI net méi vertrauenswierdeg ze betruechten.

E puer Schlëssel Abléck baséiert op dësem einfache Beispill si wäerte vun Iwwerleeung:

  • Dynamik vum Vertrauen. Och déi bescht Intentiounen fir all d'Basis ze decken fir sécherzestellen datt AI Ethik an en AI System agebaut ass keng Garantie fir wat d'AI kéint ginn oder ginn. Wann d'AI a Gebrauch gesat gëtt, kënnen Auslänner potenziell d'ethesch AI Accuements ënnergruewen.
  • Undercutting Vertrauen vu Bannen. Den Akt fir d'Vertrauenswäertegkeet z'ënnerbriechen muss net onbedéngt Auslänner sinn. En Insider, dee reegelméissegen Ënnerhalt vum AI System mécht, kéint d'AI blunderen an d'AI schwächen fir manner zouverlässeg ze sinn. Dësen AI Entwéckler ka keng Ahnung hunn iwwer wat se gemaach hunn.
  • Inadvertent Kompromëss vu Vertrauen. Eng selbstjustéierend oder selbstreguléierend AI kéint iergendwann sech selwer ajustéieren an an dat onvertrauenswierdeg Territoire goen. Vläicht probéiert d'AI d'Transparenz vun der AI ze stäerken an awer gläichzäiteg an onpassend kompromittéiert d'Privatsphär Facetten.
  • Verstreuung vum Vertrauen. Probéieren all d'AI Ethik Tenets op deeselwechten héchste Grad vu Vertrauenswäert ze erreechen ass normalerweis net einfach liewensfäeg well se dacks op Kräizzwecker sinn oder aner inherent potenziell Konflikter hunn. Et ass eng zimlech idealiséiert Perspektiv ze gleewen datt all Ethesch AI Virschrëfte dreemend ausgeriicht sinn an all erreechbar sinn zu engem gläiche maximaliséierbare Grad.
  • Vertrauen kann deier sinn ze erreechen. D'Käschte fir ze probéieren en Topnotch-Semblance vu vertrauenswürdege AI z'erreechen duerch déi verschidde extensiv an ustrengend Schrëtt z'ënnerhuelen an un d'Litanie vun AI Ethik Prinzipien ze halen wäert relativ héich sinn. Dir kënnt einfach plädéieren datt d'Käschte verbueden wieren wat e puer AI Systemer a Gebrauch kréien, déi soss e wichtege Wäert fir d'Gesellschaft hunn, och wann d'AI war, solle mir soen manner wéi ideal aus engem Vertrauenswënsch.
  • A sou weider.

Mëssverständlech déi viregt Bemierkungen net falsch interpretéieren fir ze suggeréieren datt mir iergendwéi den Effort sollte vermeiden fir vertrauenswierdeg AI grëndlech ze bauen an ze Feld. Dir géift de Puppelche mat Badewaasser summéieren erausgoen, wéi et war. Déi richteg Interpretatioun ass datt mir dës Vertrauensaktivitéite maache mussen fir AI an eng vertrauenswierdeg Iwwerleeung ze kréien, an awer ass dat eleng net eng Kur-all oder eng Sëlwerkugel.

Multi-Prong Weeër fir vertrauenswierdeg AI

Et gi wichteg zousätzlech Multi-pronged Weeër fir no vertrauenswierdeg AI ze striewen.

Zum Beispill, wéi ech virdru a menge Kolonnen ofgedeckt hunn, eng Onmass vun nei entstanen Gesetzer a Reglementer betreffend AI zielt AI Hiersteller fir vertrauenswierdeg AI z'entwéckelen, kuckt de Link hei an de Link hei.

Dës gesetzlech Guardrails sinn entscheedend als iwwergräifend Mëttel fir sécherzestellen datt déi, déi AI entwéckelen, voll verantwortlech fir hir AI gehale ginn. Ouni esou potenziell juristesch Remedies a gesetzlech Strofe, déi, déi Pell-Mell rennen AI an de Maartplaz si méiglecherweis weider mat wéineg wann iergendeen eeschte Respekt fir vertrauenswierdeg AI z'erreechen. Ech kéint notamment derbäi, datt wann dës Gesetzer a Reglementer schlecht ausgeschafft oder net genuch ëmgesat sinn, se bedauerlech d'Verfollegung vun vertrauenswürdege AI kënnen ënnersträichen, vläicht ironesch an komesch onvertrauenswierdeg AI iwwer vertrauenswierdeg AI förderen (kuckt meng Kolumndiskussiounen fir weider Erklärung).

Ech war och e staarken Affekot fir dat wat ech häerzlech bezeechent hunn AI Schutzengel Bots (kuckt meng Ofdeckung op de Link hei). Dëst ass eng zukünfteg Method oder Approche fir ze probéieren Feier mat Feier ze bekämpfen, nämlech d'AI ze benotzen fir eis ze hëllefen mat aneren AI ze handelen déi vläicht oder net zouverlässeg sinn.

Als éischt wäert e puer Hannergrondkontext nëtzlech sinn.

Ugeholl datt Dir entscheet fir op en AI System ze vertrauen datt Dir net sécher sidd iwwer seng Vertrauenswieregkeet. E Schlëssel Suerg kéint sinn datt Dir eleng sidd an Äre Versuche fir erauszefannen ob den AI ze trauen ass oder net. Den AI ass potenziell computationally méi séier wéi Dir a ka vun Iech profitéieren. Dir braucht een oder eppes op Ärer Säit fir ze hëllefen.

Eng Perspektiv ass datt et ëmmer e Mënsch-an-der-Loop soll sinn, deen Iech hëlleft wann Dir en AI System benotzt. Dëst ass awer eng problematesch Léisung. Wann den AI an Echtzäit funktionnéiert, wat mir momentan diskutéieren wann et ëm d'Entstoe vun AI-baséiert selbstfahrend Autoen kënnt, ass e Mënsch-an-der-Loop vläicht net genuch. Den AI kéint an Echtzäit handelen a wann en designéierte Mënsch-an-der-Loop d'Bild erakënnt fir erauszefannen ob d'AI richteg funktionnéiert, kéint e katastrophal Resultat scho geschitt sinn.

Als Säit bréngt dëst en anere Faktor iwwer Vertrauen op. Mir ginn normalerweis e Vertrauensniveau un baséiert op dem Kontext oder Ëmstänn mat deem mir konfrontéiert sinn. Dir kënnt Äre klenge Jong oder d'Duechter ganz vertraut fir Iech trei ze sinn, awer wann Dir eraus sidd a wandert an entscheet Iech op de Puppelchen ze vertrauen fir Iech ze soen ob et sécher ass um Rand vun engem Cliff ze trëppelen, ech mengen Dir wier schlau ze betruechten, ob d'Kand déi Aart vu Liewen-oder-Doud-Berodung ka ginn. D'Kand kéint dat eescht an oprecht maachen, an trotzdem net fäeg sinn esou Berodung adäquat ze ginn.

Déi selwecht Notioun ass mat Vertrauen assoziéiert wann et ëm AI kënnt. En AI System deen Dir benotzt fir Dammen oder Schach ze spillen ass wahrscheinlech net an all Liewen-oder-Doud Iwwerleeungen involvéiert. Dir kënnt méi einfach sinn mat Ärem Vertrauenszoustand. En AI-baséiert selbstfahrenden Auto, deen op enger Autobunn mat héijer Geschwindegkeet fuert, erfuerdert e vill méi ustrengend Vertrauensniveau. De geringste Blip vum AI Fueresystem kéint direkt zu Ärem Doud an den Doud vun aneren féieren.

An engem publizéierten Interview vum Beena Ammanath, Exekutiv Direkter vum Global Deloitte AI Institut an Auteur vum Buch Vertrauenswierdeg AI, en ähnlechen Akzent fir d'kontextuell Facette vu wou d'AI Vertrauenswäertegkeet spillt: "Wann Dir eng AI-Léisung baut déi Patientediagnos mécht, Fairness a Bias si super wichteg. Awer wann Dir en Algorithmus baut deen Jetmotorfehler virausgesot, Fairness a Bias ass net sou wichteg. Vertraulech AI ass wierklech eng Struktur fir Iech unzefänken iwwer d'Dimensioune vum Vertrauen an Ärer Organisatioun ze denken.VentureBeat22. Mäerz 2022).

Wann Dir iwwer vertrauenswierdeg AI diskutéiert, kënnt Dir dëst Thema op eng Villfalt vu Weeër konstruéieren.

Zum Beispill, vertrauenswierdeg AI ass eppes wat mir all als wënschenswäert an aspirativt Zil gesinn, nämlech datt mir verlaangen, vertrauenswierdeg AI z'entwéckelen an ze promulgéieren. Et gëtt eng aner Notzung vum Catchphrase. E bëssen alternativ Notzung ass dat vertrauenswierdeg AI ass e Staat vun Zoustand oder Messung, sou datt iergendeen kéint behaapten datt hien en AI System erstallt huet deen eng Instanz vu vertrauenswierdeger AI ass. Dir kënnt och de Saz benotzen vertrauenswierdeg AI eng Method oder Approche ze proposéieren déi benotzt ka ginn fir AI Vertrauenswäertegkeet z'erreechen. etc.

Op enger verwandter Notiz vertrauen ech datt Dir bewosst datt net all AI d'selwecht ass an datt mir musse bewosst sinn net decken Aussoen iwwer all AI ze maachen. E bestëmmten AI System ass méiglecherweis wesentlech anescht wéi en aneren AI System. Ee vun dësen AI Systemer kéint héich vertrauenswierdeg sinn, während déi aner marginal vertrauenswierdeg sinn. Sidd virsiichteg iergendwéi unzehuelen datt AI e Monolith ass deen entweder ganz vertrauenswierdeg oder ganz net zouverlässeg ass.

Dëst ass einfach net de Fall.

Ech wéilt als nächst kuerz e puer vu menge lafende Fuerschung iwwer vertrauenswierdeg AI ofdecken, déi Dir interessant fannt, déi entstinn Roll vun AI Schutzengel Bots.

Hei ass wéi et geet.

Dir wärt mat engem AI System bewaffnet ginn (en AI Schutzengel Bot) deen entwéckelt ass fir d'Vertrauenswäertegkeet vun engem aneren AI System ze moossen. Den AI Schutzengel Bot huet als Haaptfokus Är Sécherheet. Denkt un dëst wéi wann Dir d'Moyene hutt fir den AI ze iwwerwaachen, op deen Dir vertraut, andeems Dir en aneren AI System an Ärer veritabeler Tasche hutt, vläicht op Ärem Smartphone oder aner sou Apparater lafen. Äre sproochleche AI ​​Guardian kann op der Basis berechnen datt den AI op deen Dir vertraut och mécht, schafft mat schnelle Geschwindegkeeten an berechent d'Situatioun an der Hand an Echtzäit, vill méi séier wéi e Mënsch-an-der-Loop dat kéint maachen.

Dir kéint op den éischte Bléck denken datt den AI op deen Dir scho vertraut sollt e puer hunn intern AI guardrails datt déi selwecht wéi dës separat Berechent AI Schutzengel Bot maachen. Jo, dat wier sécher gewënscht. Ee Schwieregkeet ass datt d'AI Guardrails, déi an engem AI System gebaut sinn, integral a viru Geriicht mat der AI per se ausgeriicht kënne sinn, sou datt déi vermeintlech AI Schutzrail net méi fäeg ass an engem Sënn onofhängeg den AI z'iwwerpréiwen oder ze validéieren.

Déi kontrastéierend Iddi ass datt Ären AI Schutzengel Bot en onofhängegen oder Drëtt Partei AI Mechanismus ass deen ënnerscheet vun der AI op déi Dir vertraut. Et sëtzt ausserhalb vun der anerer AI, bleift Iech gewidmet an net gewidmet fir d'AI déi iwwerwaacht oder bewäert gëtt.

En einfache Mëttel fir iwwer dëst ze denken kann iwwer déi folgend vereinfacht Equatiounsähnlech Aussoen ausgedréckt ginn. Mir kënne soen datt "P" potenziell "R" vertraue wëll fir eng bestëmmten Aufgab "X" ze maachen:

Dëst wier déi folgend wann nëmme Leit involvéiert sinn:

  • Persoun P vertraut Persoun R fir Aufgab X ze maachen.

Wa mir entscheeden op AI ze vertrauen, gëtt d'Ausso nei geformt:

  • Persoun P vertraut AI Instanz-R fir Aufgab X ze maachen.

Mir kënnen den AI Schutzengel Bot addéieren andeems Dir dëst seet:

  • Persoun P vertraut AI Instanz-R fir Aufgab X ze maachen wéi se vun AI Schutzengel Bot Instance-Z iwwerwaacht ginn

Den AI Schutzengel Bot bewäert onermiddlech an onermiddlech d'AI op déi Dir vertraut. Als esou kann Äre prakteschen AI Erzéiungsberechtegten Iech alarméieren datt d'Vertraue vun dëser aner AI ongerechtfäerdegt ass. Oder, den AI Erzéiungsberechtegten kéint elektronesch mat der anerer AI interagéieren fir ze probéieren ze suergen datt all Varianz ewech vu vertrauenswierdeg séier gerecht gëtt, a sou weider (kuckt meng Ofdeckung iwwer sou Detailer op de Link hei).

D'Trusty Trust Reservoir Metapher

Well mir iwwer ënnerschiddlech Niveaue vu Vertrauen diskutéieren, fannt Dir vläicht eng praktesch Metapher iwwer Vertrauenswäertegkeet andeems Dir Vertrauen als eng Aart Reservoir virstellt.

Dir hutt e gewësse Betrag u Vertrauen fir eng bestëmmte Persoun oder Saach an enger bestëmmter Ëmstänn zu engem bestëmmte Punkt an der Zäit. Den Niveau vum Vertrauen wäert eropgoen oder falen, ofhängeg vu wat soss geschitt am Zesummenhang mat där bestëmmter Persoun oder Saach. D'Vertraue kéint op engem Nullniveau sinn wann Dir kee Vertraue fir d'Persoun oder d'Saach hutt. D'Vertraue kéint negativ sinn wann Dir Iech un dës Persoun oder Saach Mësstrauen waacht.

Am Fall vun AI Systemer, wäert Äre Vertrauensreservoir fir dee bestëmmten AI, op deen Dir an engem bestëmmten Ëmstänn vertraut, eropgoen oder falen als ofhängeg vun Ärem Vertrauen vun der AI. Heiansdo kënnt Dir Iech gutt bewosst sinn iwwer dëse variéierende Vertrauensniveau iwwer d'AI, wärend an anere Fäll Dir manner bewosst a méi sou sinn, andeems Dir Uerteeler iwwer d'Vertrauenswert mécht.

Weeër déi mir hei iwwer d'Moyene diskutéiert hunn fir Vertrauensniveauen fir AI ze stäerken enthalen:

  • Anhale vun AI Ethik. Wann den AI, op deen Dir vertraut, ausgeschafft gouf andeems Dir probéiert un déi richteg AI Ethik Viraussetzungen ze halen, géift Dir viraussiichtlech dëst Verständnis benotze fir den Niveau vun Ärem Vertrauensreservoir fir dee bestëmmten AI System ze stäerken. Als Säitnotiz ass et och méiglech datt Dir op aner AI Systemer iwwer hir Vertrauenswäertegkeet generaliséiere kënnt, och wann dëst heiansdo eng irféierend Form vu wat ech nennen kann AI Vertrauen Aura Verbreedung (sief virsiichteg dëst ze maachen!).
  • Benotzt e Human-In-The-Loop. Wann den AI e Mënsch-an-der-Loop huet, kënnt Dir positiv op Äert erkannt Vertrauen an d'AI bäidroen.
  • Etabléieren Gesetzer a Reglementer. Wann et Gesetzer a Reglementer mat dëser bestëmmter Aart vun AI assoziéiert sinn, kënnt Dir och Äert Vertrauensniveau erhéijen.
  • Employé en AI Guardian Angel Bot. Wann Dir en AI Schutzengel Bot am prett hutt, wäert dëst och Äert Vertrauensniveau weider erhéijen.

Wéi virdru scho gesot, Vertrauen kann zimmlech brécheg sinn an an engem Moment ausernee falen (dh de Vertrauensreservoir dumpt séier an op eemol all dat opgebaute Vertrauen eraus).

Stellt Iech vir datt Dir an engem AI-baséierten selbstfahrenden Auto sidd an den AI Fuert mécht plötzlech e radikale rietsen Tour, wouduerch d'Rieder jäizen a bal dat autonomt Gefier an eng geféierlech Rollover forcéieren. Wat géif mat Ärem Niveau vum Vertrauen geschéien? Et géif schéngen datt och wann Dir virdru den AI op e verstäerkten Vertrauensniveau gehalen hutt, Dir géift Äert Vertrauensniveau dramatesch an abrupt erofgoen, sënnvoll.

Zu dësem Zäitpunkt vun dëser schwéierer Diskussioun, géif ech wetten datt Dir wëllt zousätzlech illustréierend Beispiller wëllt, déi d'Natur an den Ëmfang vun vertrauenswierdeger AI weisen. Et gëtt e speziellen a sécherlech populäre Set vu Beispiller déi mäi Häerz no leien. Dir gesitt, a menger Kapazitéit als Expert op AI abegraff déi ethesch a juristesch Auswierkunge, ginn ech dacks gefrot fir realistesch Beispiller z'identifizéieren déi AI Ethik Dilemmas weisen, sou datt déi e bësse theoretesch Natur vum Thema méi einfach ka begräifen. Ee vun de evokativste Beräicher, déi dës ethesch AI Quandary lieweg presentéieren ass d'Entstoe vun AI-baséiert richteg selbstfahrend Autoen. Dëst wäert als praktesch Benotzungsfall déngen oder Beispill fir genuch Diskussioun iwwer dëst Thema.

Hei ass dann eng bemierkenswäert Fro déi derwäert ass ze iwwerdenken: Beliicht d'Entstoe vun AI-baséiert richteg selbstfahrend Autoen eppes iwwer d'Verfollegung vun vertrauenswürdege AI, a wa jo, wat weist dëst?

Erlaabt mir e Moment d'Fro auszepaken.

Als éischt, bemierkt datt et kee mënschleche Chauffer an engem richtege selbstfahrenden Auto involvéiert ass. Denkt drun datt richteg selbstfahrend Autoen iwwer en AI Fueresystem gedriwwe ginn. Et gëtt keng Bedierfnes fir e mënschleche Chauffer um Rad, an et gëtt och keng Dispositioun fir e Mënsch fir d'Gefier ze fueren. Fir meng extensiv a lafend Ofdeckung vun Autonome Gefierer (AVs) a besonnesch selbstfahrend Autoen, kuckt de Link hei.

Ech wëll weider klären wat gemengt ass wann ech op richteg selbstfahrend Autoen schwätzen.

D'Niveaue vu Selbstfueren Autoen ze verstoen

Als Erklärung, richteg selbstfahrend Autoen sinn déi wou den AI den Auto ganz eleng fiert an et gëtt keng mënschlech Hëllef wärend der Fuertask.

Dës Chaufferlos Gefierer ginn als Niveau 4 an Niveau 5 ugesinn (kuckt meng Erklärung op dëse Link hei), während en Auto, deen e mënschleche Chauffer erfuerdert fir de Fuereeffort ze deelen, gëtt normalerweis um Niveau 2 oder Niveau 3 ugesinn. automatiséiert Add-ons déi als ADAS bezeechent ginn (Advanced Driver-Assistance Systems).

Et gëtt nach kee richtegen selbstfahrenden Auto um Niveau 5, a mir wëssen nach net emol ob dat méiglech ass, a wéi laang et dauert bis dohinner kënnt.

Mëttlerweil probéieren d'Niveau 4 Efforten no an no eng Traktioun ze kréien andeems se ganz schmuel a selektiv ëffentlech Stroosseverfahren duerchgoen, awer et ass Kontrovers iwwer ob dës Tester per se erlaabt sinn (mir sinn all Liewen oder Doud Meerschwäin an engem Experiment. statt op eisen Autobunnen an byways, e puer streiden, kuckt meng Ofdeckung um dëse Link hei).

Zënter semi-autonom Autoe brauchen e mënschleche Chauffer, d'Adoptioun vun deenen Autosformen wäert net däitlech anescht sinn wéi konventionell Gefierer ze fueren, sou datt et net vill nei ass fir sech iwwer dëst Thema ze decken (awer wéi Dir wäert gesinn an engem Moment, d'nächst Punkten si generell applicabel).

Fir semi-autonom Autoen ass et wichteg datt de Public muss iwwer e gestéiert Aspekt virgeworf ginn, dee viru Kuerzem entstoung, nämlech datt trotz deene mënschleche Chauffeuren, déi weider Videoe vu sech selwer schlofen um Rad vun engem Level 2 oder Level 3 Auto an, mir all musse vermeiden datt mir falsch ginn ze gleewen datt de Chauffer hir Opmierksamkeet vun der Fuehrfahrt kann ewechhuelen während e semi-autonomem Auto fuert.

Dir sidd déi verantwortlech Partei fir déi dreiwend Handlungen vum Gefier, egal wéi vill Automatioun an en Niveau 2 oder Niveau 3 gegoss ka ginn.

Selbstfahrend Autoen a vertrauenswierdeg AI

Fir Level 4 a Level 5 richteg selbstfuerend Gefierer wäert et kee mënschleche Chauffer mat der Fuereaufgab involvéiert sinn.

All Besetzer wäerte Passagéier sinn.

Den AI mécht der Fuert.

Een Aspekt fir direkt ze diskutéieren implizéiert de Fakt datt den AI involvéiert an den haitegen AI Fuerersystemer net sentient ass. An anere Wierder, den AI ass insgesamt e Kollektiv vu computerbaséierter Programmatioun an Algorithmen, a ganz sécher net fäeg ze déiselwecht ze veruersaachen datt d'Mënschen kënnen.

Firwat ass dësen zousätzlechen Akzent iwwer den AI net sensibel?

Well ech wëll ënnersträichen datt wann ech iwwer d'Roll vum AI Fuerersystem diskutéieren, ginn ech net d'mënschlech Qualitéiten dem AI zou. Gitt weg datt et eng kontinuéierlech a geféierlech Tendenz ass dës Deeg d'Anthropomorphiséierung vum AI. Am Wesentlechen zielen d'Leit mënschlech wéi d'Gefill vun der haiteger AI zou, trotz der onbestreitbarer an onvermeidlecher Tatsaach datt bis elo nach keen esou AI existéiert.

Mat dëser Klärung kënnt Dir Iech virstellen datt den AI Fuerersystem net natierlech iergendwéi "weess" iwwer d'Facette vum Fuerer. Fueren an alles wat et mat sech bréngt, muss als Deel vun der Hardware a Software vum selbstfuerenden Auto programméiert ginn.

Loosst eis an déi Onmass Aspekter tauchen déi op dëst Thema spillen.

Als éischt ass et wichteg ze realiséieren datt net all AI selbstfahrend Autoen d'selwecht sinn. All Automobilist a selbstfahrend Tech Firma hëlt seng Approche fir selbstfahrend Autoen z'entwéckelen. Als esou ass et schwéier schwiereg Aussoen ze maachen iwwer wat AI Fueresystemer maachen oder net maachen.

Ausserdeem, wann Dir seet datt en AI Fuertsystem keng speziell Saach mécht, kann dëst spéider vun den Entwéckler iwwerholl ginn, déi de Computer tatsächlech programméiere fir dat Ganzt ze maachen. Schrëtt fir Schrëtt ginn AI Fuersystemer lues a lues verbessert a verlängert. Eng existent Limitatioun haut existéiert vläicht net méi an enger zukünfteger Iteratioun oder Versioun vum System.

Ech vertrauen datt et eng genuch Litane vu Virschrëfte gëtt fir z'ënnerstëtzen wat ech amgaang sinn ze beschreiwen.

Mir sinn elo prett fir en déif Tauchen an selbstfahrend Autoen an zouverléisseg AI ze maachen.

Vertrauen ass alles, besonnesch am Fall vun AI-baséiert selbstfahrend Autoen.

D'Gesellschaft schéngt virsiichteg d'Entstoe vu selbstfueren Autoen ze kucken. Engersäits gëtt et eng grouss Hoffnung datt d'Optriede vu richtege selbstfahrenden Autoen d'Zuel vun den alljährlechen Auto-Zesummenhang Doudesfäll beweisbar reduzéieren. Eleng an den USA ginn et ongeféier 40,000 jäerlech Doudesfäll a ronn 2.5 Millioune Verletzungen duerch Autosaccidenter, kuckt meng Sammlung vu Statistiken op de Link hei. Mënschen drénken a fueren. Mënschen fueren iwwerdeems ofgelenkt. D'Aufgab vum Auto ze fueren schéngt doran ze bestoen, sech repetitiv an onfehlerhaft op d'Fueren ze konzentréieren an ze vermeiden an Autosaccidenter ze kommen. Als esou kënne mir dreemen hoffen datt AI Fueresystemer selbstfahrend Autoen repetitiv an onfehlerlech guidéieren. Dir kënnt selbstfahrend Autoen als Twofer konstruéieren, besteet aus der Reduzéierung vum Volume vun Autosaccidenter Doudesfäll a Verletzungen, zesumme mat potenziell Mobilitéit op eng vill méi breet an zougänglech Basis verfügbar ze maachen.

Awer d'Suerg dréit mëttlerweil iwwer gesellschaftlech Perceptiounen op ob selbstfahrend Autoe sécher genuch sinn fir op eise ëffentleche Stroossen am grousse Ganzen ze sinn.

Wann souguer een selbstfahrenden Auto an en Accident oder Kollisioun erakënnt, deen zu engem eenzegen Doud oder schwéierer Verletzung féiert, kënnt Dir méiglecherweis viraussoen datt dat haut e bëssen opgebaute Vertrauen vis-à-vis vun dësen AI-baséierte Chaufferlosen Autoen séier erof geet. Mir hunn dëst gesinn geschéien wann den elo berühmten Tëschefall an Arizona geschitt ass, deen e bëssen (net wierklech) selbstfahrend Auto involvéiert huet, deen an e Foussgänger gerannt an ëmbruecht huet (kuckt meng Ofdeckung op dëse Link hei).

E puer Experten weisen drop hin, datt et ongerecht an onpassend ass, d'Vertrauen vun AI selbstfahrenden Autoen op der Facett ze baséieren, datt nëmmen een esou nächsten Doudesproduzéiere Crash oder Kollisioun déi scho relativ crashfräi ëffentlech Stroosseversuche kéint ënnergruewen. Zousätzlech, op enger weiderer ongerechter Basis, sinn d'Chancen datt egal wéi eng speziell AI selbstfahrend Autosmark oder Modell méiglecherweis an engem trauregen Tëschefall involvéiert ass, d'Gesellschaft wier onbedéngt all selbstfahrend Autosmarken zouzeschreiwen.

D'Gesamtheet vun de selbstfahrenden Autoe kéint summéiert geschmiert ginn an d'Industrie als Ganzt kéint e risege Réckschlag leiden, wat zu enger méiglecher Ausschaltung vun allen ëffentleche Stroosseversuche féiert.

E Bäiträg zu esou engem Réckschlag fënnt een an den onsënnegen Ukënnegunge vun ausgeprägte selbstfahrenden Auto-Proponenten, datt all Autoen ouni Chauffeur uncrashable sinn. Dës Iddi fir uncrashable ze sinn ass net nëmmen direkt falsch (kuckt de Link hei), et setzt süchteg déi selbstfahrend Autosindustrie op fir e komplett ausgeschlossene Set vun Erwaardungen. Dës ongewéinlech an onerreechbar Aussoen, datt et Null Doudesfäll wéinst selbstfahrend Autoe wäerte sinn, fërderen de Mëssverständnis datt all Chaufferlos Autosaccident e sécher Zeechen ass datt de ganze Kit a Kaboodle fir näischt ass.

Et gëtt eng markant Trauregkeet ze realiséieren datt de Fortschrëtt Richtung selbstfahrend Autoen an d'Zoll-zu-e-Zäit Akkumulation vum gesellschaftleche Vertrauen an engem Moment ewechgehäit ka ginn. Dat wäert eng Heck vun engem Vitrine iwwer d'Brëtzlechkeet vum Vertrauen sinn.

Konklusioun

Vill Automobilisten a selbstfahrend Tech Firmen behalen allgemeng un AI Ethik Prinzipien, maachen dat fir ze probéieren vertrauenswierdeg AI ze bauen a Felder a punkto sécher an zouverléisseg AI-baséiert selbstfahrend Autoen. Gitt w.e.g. datt e puer vun dëse Firme méi staark a méi fir d'ethesch AI Virschrëfte gewidmet sinn wéi anerer. Et ginn och geleeëntleche Fringe oder Newbie selbstfahrend Auto-verbonne Startups, déi schéngen vill vun den AI Ethics Ecksteen ze werfen (kuckt meng Bewäertung op de Link hei).

Op anere Fronten sinn nei Gesetzer a Reglementer, déi selbstfahrend Autoen ofdecken, lues a lues an d'juristesch Bicher gesat ginn. Ob se déi néideg Zänn hunn fir se z'ënnerstëtzen ass eng aner Saach, wéi och ob d'Ëmsetzung vun deene Gesetzer eescht geholl oder iwwersinn gëtt (kuckt meng Kolonnen fir Analysen doriwwer).

Et gëtt och den High-Tech Wénkel fir dëst och. Ech hu virausgesot datt mir no an no Varianten vun AI Schutzengel Bots wäerte gesinn, déi an der Arena vun autonomen Gefierer a selbstfahrend Autoen op de Virdergrond kommen. Mir sinn nach net do. Dëst wäert méi verbreet ginn wann d'Popularitéit vu selbstfueren Autoen méi verbreet gëtt.

Dëse leschte Punkt bréngt eng berühmt Linn iwwer Vertrauen op, déi Dir ouni Zweifel schonn aus Häerz kennt.

Vertrauen, awer z'iwwerpréiwen.

Mir kënnen eis erlaben eis Vertrauen ze verlängeren, vläicht generéis. Mëttlerweil sollte mir och kucken wéi e Hawk fir sécherzestellen datt d'Vertrauen, déi mir entstinn, vu Wierder an Doten verifizéiert gëtt. Loosst eis e bësse Vertrauen an AI setzen, awer verifizéieren endlos datt mir eist Vertrauen entspriechend a mat eisen Aen opmaachen.

Dir kënnt mech op dat vertrauen.

Quell: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/