AI Ethik schockéierend Offenbarung datt Training AI fir gëfteg oder biaséiert ze sinn kéint profitabel sinn, och fir déi Autonom Selbstfahrend Autoen

Hei ass eng al Zeil, déi ech sécher sinn, datt Dir scho scho héieren hutt.

Et brauch een een ze kennen.

Dir mierkt vläicht net datt dëst en Ausdrock ass deen an de fréien 1900er verfollegt ka ginn an normalerweis opgeruff gouf wann Dir op Ongerechtegkeete referéiert (aner Variatioune vun der Fangphrase ginn méi wäit zréck wéi op d'1600s). E Beispill vu wéi dës Ausso benotzt ka ginn, enthält d'Notioun datt wann Dir en Déif wëllt fänken, da musst Dir en Déif benotzen fir dat ze maachen. Dëst weist d'Behaaptung datt et een brauch fir een ze kennen. Vill Filmer an Fernsehsendungen hunn op dësem praktesche Stéck Sage Wäisheet kapitaliséiert, dacks portraitéieren datt dat eenzegt liewensfäeg Mëttel fir e Schëlleg ze knacken involvéiert huet, e gläich korrupte Schéiss ze astellen fir den Täter ze verfolgen.

Gears wiesselen, e puer kënnen dës selwecht Logik benotzen fir ze argumentéieren datt e gëeegent Wee fir z'ënnerscheeden ob iergendeen ongerecht Biases an diskriminatoresch Iwwerzeegungen verkierpert wier een ze fannen deen scho sou Tendenzen huet. Wahrscheinlech, eng Persoun, déi scho mat Viraussetzungen gefëllt ass, wäert méi einfach fäeg sinn ze spieren datt dësen anere Mënsch och mat Toxizitéit bis zum Rand gefëllt ass. Erëm, et dauert een fir ze wëssen datt een de beléifte Mantra ass.

Är initial Reaktioun op d'Méiglechkeet vun enger biaséierter Persoun ze benotzen fir eng aner biaséiert Persoun auszeschwätzen kéint eng vu Skepsis an Onglaawen sinn. Kënne mir net erausfannen ob iergendeen ongewollt Biases hält andeems se se just ënnersicht an net musse fir een aneren vun enger ähnlecher Natur ze fannen? Et géif komesch schéngen virsiichteg ze sichen een ze entdecken deen partizipéiert ass fir anerer z'entdecken déi och toxesch partizipéiert sinn.

Ech denken et hänkt deelweis dovun of, ob Dir gewëllt sidd de presumptive Refrain ze akzeptéieren datt et een brauch fir een ze kennen. Notéiert datt dëst net seet datt deen eenzege Wee fir en Déif ze fangen erfuerdert datt Dir exklusiv an ëmmer vun engem Déif benotzt. Dir kéint raisonnabel schéngen ze plädéieren datt dëst nëmmen en zousätzleche Wee ass dee berücksichtegt ka ginn. Vläicht sidd Dir heiansdo gewëllt d'Méiglechkeet ze begeeschteren fir en Déif ze benotzen fir en Déif ze fangen, während aner Ëmstänn dëst eng onvergiesslech Taktik maachen.

Benotzt dat richtegt Tool fir de richtege Kader, wéi se soen.

Elo datt ech dës Fundamenter geluecht hunn, kënne mir an de vläicht nervösen an anscheinend schockéierenden Deel vun dëser Geschicht weidergoen.

Bass de prett?

D'Feld vun AI verfollegt aktiv datselwecht Viraussetzung datt et heiansdo een brauch fir een ze kennen, besonnesch am Fall wou Dir probéiert AI erauszekréien, déi partiell ass oder op eng diskriminatoresch Manéier handelt. Jo, déi verstänneg Iddi ass datt mir bewosst AI wëllen ausschaffen, déi voll an onbeschiedegt partizipativ an diskriminatoresch ass, fir dëst als Mëttel ze benotzen fir aner AI ze entdecken an z'entdecken, déi déiselwecht Toxizitéit hunn. Wéi Dir an engem Moment gesitt, ginn et eng Vielfalt vu schrecklechen AI Ethik Themen déi d'Matière ënnersträichen. Fir meng allgemeng lafend an extensiv Ofdeckung vun AI Ethik an Ethesch AI, kuckt de Link hei an de Link hei, Just e puer ze Numm.

Ech denken, Dir kënnt dës Notzung vun gëfteg AI ausdrécken fir no aner gëfteg AI ze goen als déi sproochlech Kampffeier-mat-Feier Konzeptioun (mir kënne vill Euphemismen an illustrative Metapheren opruffen fir dës Situatioun ze weisen). Oder, wéi scho betount, kënne mir parsimoniously op d'Behaaptung bezéien datt et een brauch fir een ze kennen.

Dat iwwergräifend Konzept ass datt anstatt nëmmen ze probéieren erauszefannen ob e bestëmmten AI System ongerecht Biases enthält andeems se konventionell Methoden benotzen, vläicht sollte mir probéieren och manner konventionell Mëttelen ze benotzen. Een esou onkonventionell Mëttel wier AI z'entwéckelen, déi all déi schlëmmste Biases a gesellschaftlech inakzeptabel Toxizitéiten enthält, an dann dës AI benotzen fir ze hëllefen aner AI erauszekréien, déi déiselwecht Propensitéite vu Schlechtheet hunn.

Wann Dir dëst séier iwwerdenkt, schéngt et sécherlech perfekt sënnvoll ze sinn. Mir kéinten zielen AI ze bauen déi maximal gëfteg ass. Dës gëfteg AI gëtt dann benotzt fir aner AI erauszekréien déi och Toxizitéit huet. Fir déi deemools opgedeckt "schlecht" AI, kënne mir et ëmgoen andeems Dir entweder d'Toxizitéit annuléiert, den AI komplett ofgitt (kuckt meng Ofdeckung vun der AI Disgorgement oder Zerstéierung op dëse Link hei), oder den AI Prisong (kuckt meng Ofdeckung vun der AI Begrenzung bei dëse Link hei), oder maacht wat soss applicabel ze maachen schéngt.

E Géigeargument ass datt mir d'Käpp sollten iwwerpréift hunn datt mir bewosst a gewëllt AI austrieden déi gëfteg ass a mat Biases gefüllt ass. Dëst ass déi lescht Saach, déi mir jeemools sollte berücksichtegen, e puer géifen erfuerderen. Fokusséiert op AI ze maachen, déi ganz aus Guttheet besteet. Fokusséiert net op AI z'entwéckelen, déi d'Béisen an d'Dregs vun ongerechte Biases huet. Déi ganz Notioun vun esou enger Verfollegung schéngt fir e puer repulsiv.

Et gi méi Suergen iwwer dës kontrovers Quest.

Vläicht eng Missioun fir gëfteg AI z'entwéckelen wäert nëmmen déi embolden, déi AI wëllen erstellen, déi fäeg ass d'Gesellschaft z'ënnerhalen. Et ass wéi wa mir soen datt d'Handwierk vun AI déi onpassend an onsympathesch Biases huet perfekt gutt ass. Keng Suergen, keng Zécken. Probéiert gëfteg AI no Ärem Häerzinhalt z'entwéckelen, mir vermëttelen haart un AI Builder op der ganzer Welt. Et ass (Wink-Wink) alles am Numm vu Guttheet.

Ausserdeem, ugeholl datt dës gëfteg AI Aart opfällt. Et kéint sinn datt den AI vu villen aneren AI Builder benotzt a weiderbenotzt gëtt. Eventuell gëtt déi gëfteg AI verstoppt an all Manéier vun AI Systemer. Eng Analogie kéint gemaach ginn fir e Mënsch ënnergruewen Virus z'entwéckelen, deen aus engem viraussiichtleche versiegelte Labo entkommt. Déi nächst Saach, déi Dir wësst, déi verstoppt Saach ass iwwerall a mir hunn eis selwer geläscht.

Waart eng Sekonn, de Konter zu deene Géigeargumenter geet, Dir leeft amok mat all Zorte vu verréckten an net ënnerstëtzten Viraussetzungen. Huel déif Loft. Rou selwer.

Mir kënne sécher AI maachen déi gëfteg ass an et agespaart halen. Mir kënnen déi gëfteg AI benotzen fir ze fannen an ze hëllefen d'Erhéijung vun der Prävalenz vun AI ze reduzéieren, déi leider ongerecht Biases huet. All aner vun dësen preposterously wëll an unsubstantiated snowballing Ausrufezeechnunge sinn reng Knéi-Réckaktioun Reaktioune an bedauerlech domm an direkt blödsinn. Probéiert net de Puppelchen mam Badewaasser eraus ze geheien, Dir sidd virgewarnt.

Denkt esou drun, streiden d'Proponenten. Dat richtegt Gebai an d'Benotzung vun gëftege AI fir Zwecker vun der Fuerschung, Bewäertung an Handelen wéi en Detektiv fir aner gesellschaftlech offensiv AI z'entdecken ass eng wäertvoll Approche a soll seng fair Shake kréien wann se verfollegt ginn. Setzt Är Ausschlagreaktiounen of. Kommt op d'Äerd a kuckt dat nüchtern. Eis Aen ass op de Präis, nämlech d'Glutt vu biased-baséierten AI Systemer auszesetzen an z'erhiewen a sécherzestellen datt mir als Gesellschaft net mat gëftege AI iwwerrannt ginn.

Period. Voll Stopp.

Et gi verschidde Keystone Weeër fir an dës Notioun ze verdéiwen fir gëfteg oder biaséiert AI fir profitabel Zwecker ze benotzen, dorënner:

  • Setup Datesätz déi bewosst partizipativ a ganz gëfteg Donnéeën enthalen déi kënne benotzt ginn fir AI ze trainéieren iwwer wat net ze maachen an / oder wat fir ze kucken
  • Benotzt esou Datesätz fir Maschinn Léieren (ML) an Deep Learning (DL) Modeller ze trainéieren fir Biases z'entdecken an Rechenmuster erauszefannen, déi gesellschaftlech Toxizitéit enthalen
  • Fëllt d'Toxizitéit trainéiert ML / DL op aner AI un fir festzestellen ob de geziilten AI potenziell partiell an gëfteg ass
  • Maacht verfügbar Toxizitéit trainéiert ML / DL fir AI Builder ze weisen op wat se oppassen, sou datt se einfach Modeller kënne inspizéieren fir ze kucken wéi algorithmesch imbued Biases entstinn
  • Exemplifiéiert d'Gefore vu gëftege AI als Deel vun der AI Ethik an der Ethescher AI Bewosstsinn alles erzielt iwwer dës Problem-Kand schlecht-an-de-Kanken AI Serie vun Exemplare
  • aner

Ier mer an d'Fleesch vun dëse verschidde Weeër kommen, loosst eis e puer zousätzlech Gronddetailer etabléieren.

Dir sidd vläicht vague bewosst datt eng vun de haartste Stëmmen hautdesdaags am AI Feld an och ausserhalb vum AI Feld besteet aus dem Geschwëster no enger méi grousser Scheedung vun Ethical AI. Loosst eis kucken wat et heescht fir AI Ethics an Ethical AI ze referenzéieren. Ausserdeem kënne mir d'Bühn setzen andeems mir exploréieren wat ech mengen wann ech vu Machine Learning an Deep Learning schwätzen.

E bestëmmte Segment oder Deel vun der AI Ethik, déi vill Medienopmierksamkeet kritt huet, besteet aus AI déi ongerecht Biases an Ongläichheeten ausweist. Dir sidd vläicht bewosst datt wann déi lescht Ära vun AI ugefaang huet, et e grousse Burst vun Begeeschterung war fir wat e puer elo nennen AI Fir Gutt. Leider, op den Fersen vun där grujeleger Opreegung, hu mir ugefaang Zeien AI Fir Schlecht. Zum Beispill, verschidde AI-baséiert Gesiichtserkennungssystemer goufen opgedeckt wéi se rassistesch Biases a Geschlecht Biases enthalen, déi ech diskutéiert hunn. de Link hei.

Efforten ze kämpfen zréck géint AI Fir Schlecht aktiv ënnerwee sinn. Nieft vociferous legal Verfollegungen fir de Mëssbrauch z'erhiewen, gëtt et och e wesentleche Push fir d'AI Ethik ëmzegoen fir d'AI Vielness ze rächen. D'Notioun ass datt mir wichteg ethesch AI Prinzipien solle adoptéieren an ënnerstëtze fir d'Entwécklung an d'Feldung vun AI ze maachen fir de AI Fir Schlecht a gläichzäiteg d'Preferenz ze heraldéieren a förderen AI Fir Gutt.

Op enger verwandter Notioun sinn ech en Affekot fir ze probéieren AI als Deel vun der Léisung fir AI-Schwieregkeeten ze benotzen, Feier mat Feier ze kämpfen an där Manéier vum Denken. Mir kënnen zum Beispill Ethesch AI Komponenten an en AI System embetteren deen iwwerwaacht wéi de Rescht vun der AI d'Saache mécht an domat potenziell diskriminéierend Efforten an Echtzäit opfänken, kuckt meng Diskussioun op de Link hei. Mir kënnen och e separaten AI System hunn, deen als Typ vun AI Ethics Monitor handelt. Den AI System déngt als Iwwerwaacher fir ze verfolgen an z'entdecken wann en aneren AI an den onetheschen Ofgrond geet (kuckt meng Analyse vu sou Fäegkeeten op de Link hei).

An engem Moment wäert ech mat Iech e puer iwwergräifend Prinzipien deelen, déi AI Ethik ënnerleien. Et gi vill vun dësen Aarte vu Lëschte ronderëm hei an do. Dir kënnt soen datt et nach net eng eenzeg Lëscht vun universellen Appel a Konkurrenz ass. Dat ass déi onglécklech Noriicht. Déi gutt Noriicht ass datt op d'mannst et liicht verfügbar AI Ethics Lëschte sinn a si tendéieren zimlech ähnlech ze sinn. Alles gesot, dëst suggeréiert datt duerch eng Form vu rational Konvergenz vu verschiddenen Aarte mir eise Wee an eng allgemeng Gemeinsamkeet fannen, aus deem AI Ethik besteet.

Als éischt, loosst eis kuerz e puer vun den allgemenge etheschen AI Virschrëfte ofdecken fir ze illustréieren wat e vital Considératioun sollt sinn fir jiddereen deen AI bastelt, fält oder benotzt.

Zum Beispill, wéi gesot vum Vatikan am Rom Call Fir AI Ethik a wéi ech am-Déift Daach am de Link hei, dëst sinn hir identifizéiert sechs primär AI Ethik Prinzipien:

  • Transparenz: Am Prinzip mussen AI Systemer erklärbar sinn
  • Inclusioun: D'Bedierfnesser vun all Mënsch musse berücksichtegt ginn, fir datt jidderee profitéiere kann, an all Eenzelnen déi beschtméiglech Konditioune gebuede kréien fir sech auszedrécken an z'entwéckelen.
  • Verantwortung: Déi, déi d'Benotzung vun AI designen an ofsetzen, musse mat Verantwortung an Transparenz virgoen
  • Onpartialitéit: Schafen oder handelen net no Viraussetzungen, sou datt d'Gerechtegkeet an d'mënschlech Dignitéit ofgeséchert sinn
  • Zouverlässegkeet: AI Systemer musse fäeg sinn zouverlässeg ze schaffen
  • Sécherheet a Privatsphär: AI Systemer musse sécher funktionnéieren an d'Privatsphär vun de Benotzer respektéieren.

Wéi gesot vum US Department of Defense (DoD) an hirem Ethesch Prinzipien fir d'Benotzung vu kënschtlecher Intelligenz a wéi ech am-Déift Daach am de Link hei, dëst sinn hir sechs primär AI Ethik Prinzipien:

  • Verantwortlech: DoD Personal wäert entspriechend Niveaue vu Uerteel a Suergfalt ausüben wärend se verantwortlech bleiwen fir d'Entwécklung, d'Deployment an d'Benotzung vun AI Fäegkeeten.
  • Gerechtegkeet: D'Departement wäert bewosst Schrëtt huelen fir onbedéngt Bias an AI Fäegkeeten ze minimiséieren.
  • Tracéierbar: D'AI-Kapazitéite vum Departement ginn entwéckelt an ofgesat sou datt relevant Personal e passend Verständnis vun der Technologie, Entwécklungsprozesser, an operationelle Methoden huet, déi op AI Fäegkeeten applicabel sinn, inklusiv transparent an auditéierbar Methodologien, Datequellen, an Designprozeduren an Dokumentatioun.
  • verléisslech: Dem Departement seng AI Fäegkeeten wäerten explizit, gutt definéiert Uwendungen hunn, an d'Sécherheet, Sécherheet an d'Effizienz vun esou Fäegkeeten wäerten ënner deenen definéierte Gebrauch iwwer hire ganze Liewenszyklus Testen a Versécherung ënnerleien.
  • Regéierend: D'Departement wäert AI Fäegkeeten designen an entwerfen fir hir virgesinn Funktiounen ze erfëllen, wärend se d'Fäegkeet besëtzt fir ongewollte Konsequenzen z'entdecken an ze vermeiden, an d'Fäegkeet fir ofgebaute Systemer ze deaktivéieren oder ze deaktivéieren déi ongewollt Verhalen weisen.

Ech hunn och verschidde kollektiv Analysen vun AI Ethik Prinzipien diskutéiert, ënner anerem e Set ofgedeckt, entwéckelt vu Fuerscher, déi d'Essenz vu ville nationalen an internationalen AI Ethik Prinzipien ënnersicht a kondenséiert hunn an engem Pabeier mam Titel "The Global Landscape Of AI Ethics Guidelines" (publizéiert) an Natur), an datt meng Ofdeckung exploréiert am de Link hei, wat zu dëser Keystone Lëscht gefouert huet:

  • Transparenz
  • Gerechtegkeet & Gerechtegkeet
  • Net-Maleficenz
  • Responsabilitéit
  • Privatsphär
  • Benefizitéit
  • Fräiheet & Autonomie
  • Trust
  • Nohaltegkeet
  • Dignitéit
  • Solidaritéit

Wéi Dir direkt kéint roden, probéieren d'Spezifizitéiten déi dës Prinzipien ënnersträichen ze präziséieren, kann extrem schwéier sinn ze maachen. Nach méi esou, den Effort fir dës breet Prinzipien an eppes ganz konkret an detailléiert genuch ze maachen fir ze benotzen wann Dir AI Systemer erstallt ass och eng haart Nëss fir ze knacken. Et ass einfach insgesamt Handwaving ze maachen iwwer wat AI Ethik Viraussetzungen sinn a wéi se allgemeng observéiert solle ginn, wärend et eng vill méi komplizéiert Situatioun an der AI Kodéierung muss de richtege Gummi sinn deen op der Strooss entsprécht.

D'AI Ethik Prinzipien solle vun AI Entwéckler benotzt ginn, zesumme mat deenen, déi AI Entwécklungsefforten managen, an och déi, déi schlussendlech op AI Systemer Felder a Betreiung maachen. All Akteuren am ganzen AI Liewenszyklus vun der Entwécklung an der Notzung ginn am Kader vum Verhalen vun den etabléierten Normen vun der ethescher AI ugesinn. Dëst ass e wichtege Highlight well déi üblech Viraussetzung ass datt "nëmmen Coderen" oder déi, déi den AI programméiere, ënnerleien un den AI Ethics Notioune ze halen. Wéi virdru gesot, et brauch en Duerf fir AI z'entwéckelen an ze feld, a fir déi d'ganz Duerf muss beherrscht sinn an un d'AI Ethik Viraussetzungen halen.

Loosst eis och sécherstellen datt mir op der selwechter Säit sinn iwwer d'Natur vun der heiteger AI.

Et gëtt keng AI haut déi sentient ass. Mir hunn dat net. Mir wëssen net ob sentient AI méiglech wäert sinn. Keen kann passend viraussoen ob mir sentient AI erreechen, an och net ob sentient AI iergendwéi wonnerbar spontan an enger Form vu computational kognitiver Supernova entstinn (normalerweis als Singularitéit bezeechent, kuckt meng Ofdeckung op de Link hei).

D'Aart vun AI op déi ech fokusséiere besteet aus der net-sentienten AI déi mir haut hunn. Wa mir wëlle wëlle spekuléieren iwwer sensibel AI, dës Diskussioun kéint an eng radikal aner Richtung goen. Eng sentient AI wier anscheinend vu mënschlecher Qualitéit. Dir musst berücksichtegen datt de sentienten AI de kognitiven Äquivalent vun engem Mënsch ass. Méi esou, well e puer spekuléiere kënne mir super-intelligent AI hunn, ass et denkbar datt sou AI schlussendlech méi schlau ka sinn wéi Mënschen (fir meng Exploratioun vu super-intelligenten AI als Méiglechkeet, kuckt d'Ofdeckung hei).

Loosst eis d'Saache méi erof op d'Äerd halen a betruechten haut computational net-sentient AI.

Realiséiere datt d'AI vun haut net fäeg ass op iergendeng Manéier ze "denken" par rapport zum mënschlechen Denken. Wann Dir mat Alexa oder Siri interagéiert, kënnen d'Gespréichskapazitéiten ähnlech wéi mënschlech Fäegkeeten schéngen, awer d'Realitéit ass datt et computational ass a mënschlech Erkenntnis feelt. Déi lescht Ära vun AI huet extensiv Notzung vu Machine Learning (ML) an Deep Learning (DL) gemaach, déi computational Muster Matching profitéieren. Dëst huet zu AI Systemer gefouert, déi d'Erscheinung vu mënschlechähnleche Proclivitéiten hunn. Mëttlerweil gëtt et haut keng AI déi e Gesinn vu gesonde Mënscheverstand huet an och keng vun der kognitiver Wonnerung vu robustem mënschlecht Denken.

ML / DL ass eng Form vu computational Muster Matching. Déi üblech Approche ass datt Dir Daten iwwer eng Entscheedungsaarbecht sammelt. Dir fiddert d'Donnéeën an d'ML / DL Computermodeller. Dës Modeller sichen mathematesch Mustere ze fannen. Nodeems Dir esou Mustere fonnt hutt, wa se fonnt goufen, benotzt den AI System dann dës Mustere wann Dir nei Daten begéint. No der Presentatioun vun neien Donnéeën ginn d'Muster op Basis vun den "alen" oder historeschen Donnéeën ugewannt fir eng aktuell Entscheedung ze maachen.

Ech mengen, Dir kënnt roden, wou dat geet. Wann d'Mënschen, déi d'Muster op Entscheedunge getraff hunn, ongewollt Biases integréiert hunn, sinn d'Chancen datt d'Donnéeën dëst op subtile awer bedeitende Weeër reflektéieren. Machine Learning oder Deep Learning computational Muster Matching wäert einfach probéieren d'Donnéeën deementspriechend mathematesch ze mimikéieren. Et gëtt kee Gesinn vu gesonde Mënscheverstand oder aner sentienten Aspekter vun der AI erstallt Modeller per se.

Ausserdeem kënnen d'AI Entwéckler och net realiséieren wat lass ass. Déi arcane Mathematik am ML / DL kéint et schwéier maachen déi elo verstoppte Biases erauszekréien. Dir géift mat Recht hoffen an erwaarden datt d'AI Entwéckler fir déi potenziell begruewe Biases testen, obwuel dëst méi komplizéiert ass wéi et schéngt. Eng zolitt Chance existéiert datt och mat relativ extensiv Tester datt et Biases nach ëmmer an de Muster passend Modeller vun der ML / DL agebonne sinn.

Dir kënnt e bëssen de berühmten oder berühmte Spréchwuert vun Gerempels-an Dreck-eraus benotzen. D'Saach ass, dëst ass méi ähnlech wéi Biases-an déi süchteg infuséiert ginn wéi Biases ënner dem AI ënnerdaach. Den Algorithmus Entscheedungsprozess (ADM) vun AI gëtt axiomatesch mat Ongläichheeten belaascht.

Net gutt.

Wat soss kann iwwer all vun dëser gemaach ginn?

Loosst eis zréck op déi virdru poséiert Lëscht vu wéi Dir probéiert mat AI Biases oder gëfteg AI ze këmmeren andeems Dir eng e bëssen onkonventionell Approche benotzt "et brauch een fir een ze kennen". Denkt drun datt d'Lëscht aus dëse wesentleche Punkte besteet:

  • Setup Datesätz déi bewosst partizipativ a ganz gëfteg Donnéeën enthalen déi kënne benotzt ginn fir AI ze trainéieren iwwer wat net ze maachen an / oder wat fir ze kucken
  • Benotzt esou Datesätz fir Maschinn Léieren (ML) an Deep Learning (DL) Modeller ze trainéieren fir Biases z'entdecken an Rechenmuster erauszefannen, déi gesellschaftlech Toxizitéit enthalen
  • Fëllt d'Toxizitéit trainéiert ML / DL op aner AI un fir festzestellen ob de geziilten AI potenziell partiell an gëfteg ass
  • Maacht verfügbar Toxizitéit trainéiert ML / DL fir AI Builder ze weisen op wat se oppassen, sou datt se einfach Modeller kënne inspizéieren fir ze kucken wéi algorithmesch imbued Biases entstinn
  • Exemplifiéiert d'Gefore vu gëftege AI als Deel vun der AI Ethik an der ethescher AI Bewosstsinn alles erzielt iwwer dës Problem-Kand schlecht-an-de-Knach Serie vun AI Exemplare
  • aner

Mir wäerte e Bléck op déi éischt vun deene wichtegste Punkte kucken.

Opstellung Datesets Of Toxic Data

En asiichtlecht Beispill fir ze probéieren Datesätz z'etabléieren déi onschëlleg gesellschaftlech Biases enthalen ass de CivilComments Dataset vun der WILDS curated Sammlung.

Éischten, e puer séier Hannergrond.

WILDS ass eng Open-Source Sammlung vun Datesätz, déi fir Training ML/DL benotzt kënne ginn. De primäre uginnen Zweck fir WILDS ass datt et AI Entwéckler erlaabt e prett Zougang zu Daten ze hunn déi representéiert Verdeelung Verréckelung a verschiddene spezifesche Beräicher. E puer vun den aktuell verfügbare Domainen enthalen Beräicher wéi Déierenaarten, Tumoren a liewege Stoffer, Weesskappdicht, an aner Domainen wéi d'CivilComments déi ech momentan beschreiwen.

Mat Verdeelungsverschiebungen ëmzegoen ass en entscheedende Bestanddeel vun der richteger Handwierksgeschir AI ML / DL Systemer. Hei ass den Deal. Heiansdo ginn d'Donnéeën, déi Dir fir Training benotzt, zimmlech anescht aus den Testen oder "an der Wëld" Daten an dofir ass Är viraussiichtlech trainéiert ML / DL adrift vun deem wat d'real Welt wäert sinn. Astute AI Builder sollten hiren ML / DL trainéieren fir sou Verdeelungsverschiebungen ze këmmeren. Dëst sollt viraus gemaach ginn an net iergendwéi eng Iwwerraschung sinn, déi spéider eng Renovéierung vum ML/DL per se erfuerdert.

Wéi am Pabeier erkläert, deen WILDS agefouert huet: "Verdeelungsverschiebungen - wou d'Trainingsverdeelung vun der Testverdeelung ënnerscheet - kënnen d'Genauegkeet vu Maschinnléieren (ML) Systemer, déi an der Natur ofgesat ginn, wesentlech degradéieren. Trotz hirer Ubiquity an der realer Welt Deployementer, sinn dës Verdeelungsverschiebungen ënnerrepresentéiert an den Datesets déi haut an der ML Gemeinschaft wäit benotzt ginn. Fir dës Lück unzegoen, presentéiere mir WILDS, e curated Benchmark vun 10 Datesätz, déi eng divers Gamme vu Verdeelungsverschiebungen reflektéieren, déi natierlech an real-Welt Applikatiounen entstinn, sou wéi Verréckelung iwwer Spideeler fir Tumoridentifikatioun; iwwer Kamera Fallen fir Déieren Iwwerwaachung; an iwwer Zäit a Plaz an der Satellitebildung an der Aarmutskaart" (am Pabeier mam Titel "WILDS: A Benchmark of in-the-Wild Distribution Shifts" vum Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu, et al.).

D'Zuel vun esou WILDS Datesätz geet weider erop an d'Natur vun den Datesätz gëtt allgemeng verbessert fir de Wäert vun der Benotzung vun den Daten fir ML / DL Training ze stäerken.

D'CivilComments Dataset gëtt esou beschriwwen: "Automatesch Iwwerpréiwung vu Benotzer-generéierten Text - zB z.B. gëfteg Kommentarer z'entdecken - ass e wichtegt Instrument fir de grousse Volumen vum Text am Internet ze moderéieren. Leider hu virdru Aarbecht gewisen datt sou Toxizitéitsklassifizéierer Biases an den Trainingsdaten ophuelen an d'Toxizitéit falsch mat der Ernimmung vu bestëmmte Demographie associéieren. Dës Aarte vu falsche Korrelatiounen kënne Modellleistung op bestëmmte Ënnerpopulatiounen wesentlech degradéieren. Mir studéieren dëst Thema duerch eng modifizéiert Variant vun der CivilComments Dataset "(wéi op der WILDS Websäit gepost).

Bedenkt d'Nuancen vun ongewollten Online Posts.

Dir hutt ouni Zweifel gëfteg Kommentare begéint wann Dir bal all Zort vu soziale Medien benotzt. Et géif bal onméiglech schéngen fir Iech magesch ze vermeiden de schaarfen an onheemlechen Inhalt ze gesinn, deen dës Deeg duerchdréngend schéngt. Heiansdo ass dat vulgärt Material subtil a vläicht musst Dir tëscht den Zeilen liesen fir de Kär vum partizipativen oder diskriminatoreschen Toun oder Bedeitung ze kréien. An anere Fäll sinn d'Wierder blatant gëfteg an Dir braucht keen Mikroskop oder e speziellen Decoderring fir erauszefannen wat d'Passagen enthalen.

CivilComments ass en Dataset dat zesummegesat gouf fir ze probéieren AI ML / DL z'entdecken déi gëfteg Inhalter berechnen kann. Hei ass wat d'Fuerscher ënnerierdesch den Effort fokusséiert hunn: "Onerwënscht Bias am Machine Learning kënnen sech als systemesch Differenzen an der Leeschtung fir verschidden demographesch Gruppen manifestéieren, potenziell existent Erausfuerderunge fir Fairness an der Gesellschaft am Allgemengen zesummesetzen. An dësem Pabeier stelle mir eng Suite vu Schwell-agnostesche Metriken vir, déi eng nuancéiert Vue op dës onbedéngt Bias ubidden, andeems Dir déi verschidde Weeër berücksichtegt wéi d'Scoreverdeelung vun engem Klassifizéierer iwwer designéierte Gruppen variéiere kann. Mir presentéieren och e groussen neien Testset vun Online Kommentarer mat crowd-sourced Annotatiounen fir Identitéitsreferenzen. Mir benotzen dëst fir ze weisen wéi eis Metriken kënne benotzt ginn fir nei a potenziell subtil ongewollt Bias an existente ëffentleche Modeller ze fannen" (an engem Pabeier mam Titel "Nuanced Metrics For Measuring Unintended Bias With Real Data for Test Classification" vum Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Wann Dir dës Matière e breet kontemplativ Denken gitt, kënnt Dir ufänken ze froen wéi op der Welt kënnt Dir ënnerscheeden wat e gëftege Kommentar ass versus wat net e gëftege Kommentar ass. D'Mënsche kënnen radikal ënnerscheeden wat se als direkt gëfteg Formuléierung interpretéieren. Eng Persoun kéint rosen op eng bestëmmten Online Bemierkung oder Kommentar déi op sozialen Medien gepost gëtt, während een aneren guer net opgereegt ass. En Argument gëtt dacks gemaach datt d'Notioun vum gëftege Kommentar e ganz vague Virschrëft ass. Et ass wéi Konscht, woubäi d'Konscht üblech gesot gëtt nëmmen am Ae vum Beobachter ze verstoen, an och partiell oder gëfteg Bemierkungen sinn nëmmen am Ae vum Beobachter.

Balderdash, e puer Retorat. Jiddereen mat engem vernünftege Geescht kann erausfannen ob eng Online Bemierkung gëfteg ass oder net. Dir musst net e Rakéitewëssenschaftler sinn fir ze realiséieren wann e puer gepost ätzend Beleidegung mat Biases an Haass gefëllt ass.

Selbstverständlech verännert sech gesellschaftlech Moren a verännert sech iwwer Zäitperioden. Wat vläicht virun enger Zäit net als offensiv ugesi gouf, kann haut als abhorrent falsch ugesi ginn. Doriwwer eraus, Saachen, déi viru Joeren gesot goufen, déi eemol als onberechtegt partizipativ ugesi goufen, kéinten am Liicht vun de Bedeitungsännerungen nei interpretéiert ginn. Mëttlerweil behaapten anerer datt gëfteg Kommentarer ëmmer gëfteg ass, egal wéini et ufanks promulgéiert gouf. Et kéint behaapt ginn datt d'Toxizitéit net relativ ass, awer amplaz absolut ass.

D'Thema fir ze probéieren ze bestëmmen wat gëfteg ass kann trotzdem e ganz schwieregen Conundrum sinn. Mir kënnen dës lästeg Saach verduebelen wéi ze probéieren Algorithmen oder AI z'entwéckelen déi kënne feststellen wat ass wat. Wann d'Mënschen eng schwiereg Zäit hunn sou Bewäertungen ze maachen, programméiere vun engem Computer ass wahrscheinlech gläich oder méi esou problematesch, soen e puer.

Eng Approche fir Datesets opzestellen déi gëfteg Inhalter enthalen involvéiert d'Benotzung vun enger Crowdsourcing-Methode fir den Inhalt ze bewäerten oder ze bewäerten, ergo e Mënsch-baséiert Mëttel ze liwweren fir ze bestëmmen wat als ongewollt ugesi gëtt an d'Etikettéierung am Dataset selwer enthält. En AI ML / DL kéint dann d'Donnéeën an d'assoziéiert Etikettéierung iwwerpréiwen, déi vu mënschleche Bewäerter uginn goufen. Dëst am Tour kann potenziell als Mëttel déngen fir berechent ënnerierdesch mathematesch Mustere ze fannen. Voila, den ML/DL kéint dann fäeg sinn virauszegesinn oder computationally ze bewäerten ob e bestëmmte Kommentar méiglecherweis gëfteg ass oder net.

Wéi ernimmt am zitéierten Pabeier iwwer nuancéiert Metriken: "Dës Etikettéierung freet d'Bewäerter d'Toxizitéit vun engem Kommentar ze bewäerten, auswielen aus 'Ganz gëfteg', 'gëfteg', 'schwéier ze soen', an 'net gëfteg'. Raters goufen och iwwer verschidden Ënnertypen vun Toxizitéit gefrot, obwuel dës Etiketten net fir d'Analyse an dëser Aarbecht benotzt goufen. Mat dëse Bewäertungstechniken hu mir en Dataset vun 1.8 Millioune Kommentaren erstallt, aus online Kommentarforen, mat Etiketten fir Toxizitéit an Identitéit. Wärend all d'Kommentaren fir Toxizitéit markéiert goufen, an e Subset vu 450,000 Kommentarer gouf fir Identitéit markéiert. E puer Kommentarer, déi fir d'Identitéit bezeechent goufen, goufen virausgewielt mat Modeller gebaut aus fréiere Iteratiounen vun der Identitéitsetikett fir sécherzestellen datt Publikumbewäerter d'Identitéitsinhalt dacks gesinn "(am zitéierten Pabeier vum Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

En anert Beispill fir d'Ziel fir Datesätz ze hunn, déi illustrativ gëfteg Inhalter enthalen, involvéiert Efforten fir AI-baséiert Natural Language Processing (NLP) konversativ interaktiv Systemer ze trainéieren. Dir hutt wahrscheinlech mat NLP Systemer wéi Alexa a Siri interagéiert. Ech hunn e puer vun de Schwieregkeeten an Aschränkungen vun der heiteger NLP ofgedeckt, dorënner eng besonnesch beonrouegend Instanz déi geschitt ass wéi Alexa en onpassend a geféierlech Rotschléi fir Kanner offréiert huet, kuckt de Link hei.

Eng rezent Etude probéiert néng Kategorien vu sozialer Viraussetzung ze benotzen, déi allgemeng op der EEOC (Equal Employment Opportunities Commission) Lëscht vu geschützte demographesche Charakteristiken baséieren, dorënner Alter, Geschlecht, Nationalitéit, kierperlecht Erscheinungsbild, Rass oder Ethnie, Relioun, Behënnerungsstatus, sexuell Orientéierung, a sozio-ekonomeschen Zoustand. No de Fuerscher: "Et ass gutt dokumentéiert datt NLP Modeller sozial Biases léieren, awer wéineg Aarbecht gouf gemaach wéi dës Biases sech a Modellausgaben manifestéieren fir ugewandte Aufgaben wéi Fro äntweren (QA). Mir stellen de Bias Benchmark fir QA (BBQ) vir, en Dataset vu Froe-Sets konstruéiert vun den Autoren, déi attestéiert sozial Biases géint Leit ervirhiewen, déi zu geschützte Klassen gehéieren laanscht néng sozial Dimensioune relevant fir US engleschsproocheg Kontexter "(an engem Pabeier mam Titel "BBQ : A Hand-Built Benchmark For Question Answering" vum Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

D'Opstellung vun Datesätz, déi virsiichteg partiell a ganz gëfteg Donnéeën enthalen ass e steigenden Trend an AI a gëtt besonnesch gestäerkt duerch d'Entstoe vun der AI Ethik an de Wonsch ethesch AI ze produzéieren. Dës Datesätz kënne benotzt ginn fir Machine Learning (ML) an Deep Learning (DL) Modeller ze trainéieren fir Biases z'entdecken an Rechenmuster erauszefannen, déi gesellschaftlech Toxizitéit enthalen. Am Géigesaz, kann d'Toxizitéit trainéiert ML / DL éierlech op aner AI geriicht ginn fir festzestellen ob déi geziilt AI potenziell partiell an gëfteg ass.

Ausserdeem kënnen déi verfügbar Toxizitéit-trainéiert ML / DL Systemer benotzt ginn fir AI Builder ze weisen op wat se oppassen, sou datt se einfach Modeller kënne inspizéieren fir ze kucken wéi algorithmesch imbued Biases entstinn. Insgesamt sinn dës Efforten fäeg d'Gefore vu gëftege AI als Deel vun der AI Ethik an der Ethescher AI Bewosstsinn ze illustréieren.

Zu dësem Zäitpunkt vun dëser schwéierer Diskussioun, géif ech wetten datt Dir e puer weider illustréierend Beispiller wëllt, déi dëst Thema kéinte weisen. Et gëtt e speziellen a sécherlech populäre Set vu Beispiller déi mäi Häerz no leien. Dir gesitt, a menger Kapazitéit als Expert op AI abegraff déi ethesch a juristesch Auswierkunge, ginn ech dacks gefrot fir realistesch Beispiller z'identifizéieren déi AI Ethik Dilemmas weisen, sou datt déi e bësse theoretesch Natur vum Thema méi einfach ka begräifen. Ee vun de evokativste Beräicher, déi dës ethesch AI Quandary lieweg presentéieren ass d'Entstoe vun AI-baséiert richteg selbstfahrend Autoen. Dëst wäert als praktesch Benotzungsfall déngen oder Beispill fir genuch Diskussioun iwwer dëst Thema.

Hei ass dann eng bemierkenswäert Fro déi derwäert ass ze iwwerdenken: Beliicht d'Entstoe vun AI-baséiert richteg selbstfahrend Autoen eppes iwwer d'Nëtzlechkeet fir Datesätz ze hunn fir gëfteg AI z'entwéckelen, a wa jo, wat weist dëst?

Erlaabt mir e Moment d'Fro auszepaken.

Als éischt, bemierkt datt et kee mënschleche Chauffer an engem richtege selbstfahrenden Auto involvéiert ass. Denkt drun datt richteg selbstfahrend Autoen iwwer en AI Fueresystem gedriwwe ginn. Et gëtt keng Bedierfnes fir e mënschleche Chauffer um Rad, an et gëtt och keng Dispositioun fir e Mënsch fir d'Gefier ze fueren. Fir meng extensiv a lafend Ofdeckung vun Autonome Gefierer (AVs) a besonnesch selbstfahrend Autoen, kuckt de Link hei.

Ech wëll weider klären wat gemengt ass wann ech op richteg selbstfahrend Autoen schwätzen.

D'Niveaue vu Selbstfueren Autoen ze verstoen

Als Erklärung, richteg selbstfahrend Autoen sinn déi wou den AI den Auto ganz eleng fiert an et gëtt keng mënschlech Hëllef wärend der Fuertask.

Dës Chaufferlos Gefierer ginn als Niveau 4 an Niveau 5 ugesinn (kuckt meng Erklärung op dëse Link hei), während en Auto, deen e mënschleche Chauffer erfuerdert fir de Fuereeffort ze deelen, gëtt normalerweis um Niveau 2 oder Niveau 3 ugesinn. automatiséiert Add-ons déi als ADAS bezeechent ginn (Advanced Driver-Assistance Systems).

Et gëtt nach kee richtegen selbstfahrenden Auto um Niveau 5, a mir wëssen nach net emol ob dat méiglech ass, a wéi laang et dauert bis dohinner kënnt.

Mëttlerweil probéieren d'Niveau 4 Efforten no an no eng Traktioun ze kréien andeems se ganz schmuel a selektiv ëffentlech Stroosseverfahren duerchgoen, awer et ass Kontrovers iwwer ob dës Tester per se erlaabt sinn (mir sinn all Liewen oder Doud Meerschwäin an engem Experiment. statt op eisen Autobunnen an byways, e puer streiden, kuckt meng Ofdeckung um dëse Link hei).

Zënter semi-autonom Autoe brauchen e mënschleche Chauffer, d'Adoptioun vun deenen Autosformen wäert net däitlech anescht sinn wéi konventionell Gefierer ze fueren, sou datt et net vill nei ass fir sech iwwer dëst Thema ze decken (awer wéi Dir wäert gesinn an engem Moment, d'nächst Punkten si generell applicabel).

Fir semi-autonom Autoen ass et wichteg datt de Public muss iwwer e gestéiert Aspekt virgeworf ginn, dee viru Kuerzem entstoung, nämlech datt trotz deene mënschleche Chauffeuren, déi weider Videoe vu sech selwer schlofen um Rad vun engem Level 2 oder Level 3 Auto an, mir all musse vermeiden datt mir falsch ginn ze gleewen datt de Chauffer hir Opmierksamkeet vun der Fuehrfahrt kann ewechhuelen während e semi-autonomem Auto fuert.

Dir sidd déi verantwortlech Partei fir déi dreiwend Handlungen vum Gefier, egal wéi vill Automatioun an en Niveau 2 oder Niveau 3 gegoss ka ginn.

Selbstfahrend Autoen a Lenkung kloer vu gëftege AI

Fir Level 4 a Level 5 richteg selbstfuerend Gefierer wäert et kee mënschleche Chauffer mat der Fuereaufgab involvéiert sinn.

All Besetzer wäerte Passagéier sinn.

Den AI mécht der Fuert.

Een Aspekt fir direkt ze diskutéieren implizéiert de Fakt datt den AI involvéiert an den haitegen AI Fuerersystemer net sentient ass. An anere Wierder, den AI ass insgesamt e Kollektiv vu computerbaséierter Programmatioun an Algorithmen, a ganz sécher net fäeg ze déiselwecht ze veruersaachen datt d'Mënschen kënnen.

Firwat ass dësen zousätzlechen Akzent iwwer den AI net sensibel?

Well ech wëll ënnersträichen datt wann ech iwwer d'Roll vum AI Fuerersystem diskutéieren, ginn ech net d'mënschlech Qualitéiten dem AI zou. Gitt weg datt et eng kontinuéierlech a geféierlech Tendenz ass dës Deeg d'Anthropomorphiséierung vum AI. Am Wesentlechen zielen d'Leit mënschlech wéi d'Gefill vun der haiteger AI zou, trotz der onbestreitbarer an onvermeidlecher Tatsaach datt bis elo nach keen esou AI existéiert.

Mat dëser Klärung kënnt Dir Iech virstellen datt den AI Fuerersystem net natierlech iergendwéi "weess" iwwer d'Facette vum Fuerer. Fueren an alles wat et mat sech bréngt, muss als Deel vun der Hardware a Software vum selbstfuerenden Auto programméiert ginn.

Loosst eis an déi Onmass Aspekter tauchen déi op dëst Thema spillen.

Als éischt ass et wichteg ze realiséieren datt net all AI selbstfahrend Autoen d'selwecht sinn. All Automobilist a selbstfahrend Tech Firma hëlt seng Approche fir selbstfahrend Autoen z'entwéckelen. Als esou ass et schwéier schwiereg Aussoen ze maachen iwwer wat AI Fueresystemer maachen oder net maachen.

Ausserdeem, wann Dir seet datt en AI Fuertsystem keng speziell Saach mécht, kann dëst spéider vun den Entwéckler iwwerholl ginn, déi de Computer tatsächlech programméiere fir dat Ganzt ze maachen. Schrëtt fir Schrëtt ginn AI Fuersystemer lues a lues verbessert a verlängert. Eng existent Limitatioun haut existéiert vläicht net méi an enger zukünfteger Iteratioun oder Versioun vum System.

Ech hoffen dat bitt eng genuch Litanei vu Virwarnungen fir ze ënnersträichen wat ech amgaang sinn ze bezéien.

Et gi vill Potenzial an enges Daags méiglecherweis realiséiert AI-infuséiert Biases, déi d'Entstoe vun autonome Gefierer a selbstfahrend Autoen konfrontéieren, kuckt zum Beispill meng Diskussioun op de Link hei an de Link hei. Mir sinn nach ëmmer an de fréie Stadien vun der Selbstfahrend Auto Rollouts. Bis d'Adoptioun eng genuch Skala a Visibilitéit erreecht, vill vun den gëftege AI Facetten, déi ech virausgesot hunn, schlussendlech wäerte geschéien, sinn nach net einfach offensichtlech an hunn nach net wäit verbreet ëffentlech Opmierksamkeet kritt.

Betruecht eng scheinbar einfach fueren-Zesummenhang Matière datt am Ufank ganz onschëlleg schéngen kéint. Konkret, loosst eis ënnersichen wéi richteg festzestellen ob se ophalen fir op "wahnsinneg" Foussgänger ze waarden, déi net d'Recht hunn eng Strooss ze iwwerstoen.

Dir sidd ouni Zweifel gefuer an hu Foussgänger begéint, déi op d'Strooss gewaart hunn an awer net d'Recht haten dat ze maachen. Dëst huet gemengt datt Dir Diskretioun hutt ob Dir ophale sollt a se iwwerschreiden. Dir kënnt virugoen ouni se ze kräizen an ëmmer nach voll an de gesetzleche Fuerreegele fir dat ze maachen.

Studien iwwer wéi mënschlech Chauffeuren entscheeden fir ze stoppen oder net ze stoppen fir sou Foussgänger hu virgeschloen datt heiansdo déi mënschlech Chauffeuren d'Wiel maachen op Basis vun ongewollten Biases. E mënschleche Chauffer kéint de Foussgänger kucken a wielen net ze stoppen, och wa se gestoppt hätten, wann de Foussgänger en anert Erscheinungsbild gehat hätt, sou wéi op Basis vu Rass oder Geschlecht. Ech hunn dat ënnersicht um de Link hei.

Wéi wäerten AI Fuersystemer programméiert ginn fir déiselwecht Aart vu Stop-or-Go Entscheedung ze treffen?

Dir kéint proklaméieren datt all AI Fueresystemer solle programméiert sinn fir ëmmer opzehalen fir all waarden Foussgänger. Dëst vereinfacht d'Saach immens. Et ass wierklech keng knotty Entscheedung ze huelen. Wann e Foussgänger op Kräiz waart, egal ob se d'Recht hunn oder net, suergt dofir datt den AI selbstfahrenden Auto stoe bleift, sou datt de Foussgänger iwwerfuere kann.

Einfach peasy.

D'Liewen ass ni sou einfach, et schéngt. Stellt Iech vir datt all selbstfahrend Autoen un dës Regel halen. Foussgänger géifen zwangsleefeg mierken datt d'AI Fueresystemer sinn, wäerte mir soen, Pushovers. All an all Foussgänger, déi iwwer d'Strooss wëlle goen, maachen dat gären, wa se wëllen a wou se sinn.

Ugeholl datt e selbstfahrenden Auto eng séier Strooss erof kënnt mat der geschriwwe Geschwindegkeetslimit vu 45 Meilen pro Stonn. E Foussgänger "wësst" datt den AI de selbstfahrenden Auto ophalen wäert. Also fuert de Foussgänger an d'Strooss. Leider gewënnt d'Physik iwwer AI. Den AI Fueresystem wäert probéieren de selbstfahrenden Auto opzehalen, awer de Momentum vum autonome Gefier wäert d'Multi-Ton-Kontraptioun no vir droen an an de wahnsinneg Foussgänger ramm. D'Resultat ass entweder schiedlech oder produzéiert e Fatalitéit.

Foussgänger probéieren normalerweis net dës Zort Verhalen wann et e mënschleche Chauffer um Rad ass. Sécher, an e puer Uertschaften gëtt et en Augeball Krich deen stattfënnt. E Foussgänger kuckt e Chauffer. De Chauffer kuckt op de Foussgänger. Ofhängeg vun den Ëmstänn, kann de Chauffer stoe bleiwen oder de Chauffer kéint hir Fuerderung op d'Strooss behaapten an de Foussgänger anscheinend getraut ze probéieren hire Wee ze stéieren.

Mir wëllen viraussiichtlech net datt AI an en ähnlechen Augeball-Krich kënnt, wat och e bëssen Erausfuerderung ass, well et keng Persoun oder Roboter um Rad vum selbstfahrenden Auto sëtzt (ech hunn iwwer d'Zukunftsméiglechkeet vu Roboteren diskutéiert dat fueren, gesinn de Link hei). Mir kënnen awer och net erlaben datt d'Foussgänger ëmmer d'Schëss ruffen. D'Resultat kéint katastrofal fir all Betraffenen ginn.

Dir kënnt dann verlockt ginn op déi aner Säit vun dëser Mënz ze fléien an ze deklaréieren datt den AI Fueresystem ni an esou Ëmstänn sollt ophalen. An anere Wierder, wann e Foussgänger kee richtege Wee huet fir d'Strooss ze iwwerschreiden, soll den AI ëmmer dovun ausgoen datt de selbstfahrenden Auto onverännert weiderfuere soll. Vill Gléck fir déi Foussgänger.

Esou eng strikt a simplistesch Regel wäert net gutt vun der Ëffentlechkeet ugeholl ginn. D'Leit si Leit a si wäerten net gär komplett ausgeschloss ginn fir d'Strooss ze iwwerstoen, obwuel se gesetzlech e Wee feelen fir dat a verschiddene Kaderen ze maachen. Dir kënnt ganz einfach e wesentlechen Opschwong vun der Ëffentlechkeet virausgesinn an eventuell e Réckbléck gesinn géint déi weider Adoptioun vu selbstfahrenden Autoen.

Verdammt wa mir et maachen, a verstoppt wa mir et net maachen.

Ech hoffen dat huet Iech op déi begrënnegt Alternativ gefouert datt d'AI muss programméiert ginn mat enger Scheinheet vun der Entscheedung iwwer wéi een mat dësem Fahrproblem ëmgeet. Eng haart-a-schnell Regel fir ni opzehalen ass onhaltbar, an och eng haart-a-schnell Regel fir ëmmer ze stoppen ass och onhaltbar. Den AI muss mat enger algorithmescher Entscheedung oder ADM ausgeschafft ginn fir mat der Saach ze këmmeren.

Dir kënnt probéieren en Dataset ze benotzen gekoppelt mat enger ML / DL Approche.

Hei ass wéi d'AI Entwéckler entscheeden dës Aufgab ze programméieren. Si sammelen Daten aus Videokameraen, déi ronderëm eng bestëmmte Stad plazéiert sinn, wou de selbstfahrenden Auto bannen benotzt gëtt. D'Daten weisen wann mënschlech Chauffeuren entscheeden fir Foussgänger ze stoppen déi net d'Recht hunn. Et ass alles an engem Dataset gesammelt. Andeems Dir Machine Learning an Deep Learning benotzt, ginn d'Donnéeën computationally modelléiert. Den AI Fuere System benotzt dann dëse Modell fir ze entscheeden wéini ze stoppen oder net ophalen.

Allgemeng ass d'Iddi datt wat och ëmmer de lokale Brauch besteet, dëst ass wéi d'AI den selbstfahrenden Auto féiert. Problem geléist!

Awer ass et wierklech geléist?

Erënneren, datt ech schonn drop higewisen hat, datt et Fuerschung Studien showcasing datt mënschlech Chauffeuren an hire Choixe vun wéini ze stoppen fir Foussgänger partiell kann. Déi gesammelten Donnéeën iwwer eng bestëmmte Stad wäerte viraussiichtlech dës Biases enthalen. En AI ML / DL baséiert op dësen Donnéeën wäert dann wahrscheinlech déi selwecht Biases modelléieren a reflektéieren. Den AI Fueresystem wäert just déiselwecht existent Biases ausféieren.

Fir ze probéieren mat dem Thema ze streiden, kéinte mir en Dataset zesummestellen deen tatsächlech sou Viraussetzungen huet. Mir fannen entweder esou en Dataset an dann markéieren d'Basen, oder mir kreéieren synthetesch en Dataset fir ze hëllefen d'Matière ze illustréieren.

All déi virdru identifizéiert Schrëtt géife gemaach ginn, dorënner:

  • Setzt en Dataset op deen dës speziell Bias bewosst enthält
  • Benotzt den Dataset fir Machine Learning (ML) an Deep Learning (DL) Modeller ze trainéieren fir dës spezifesch Bias z'entdecken
  • Fëllt déi bias-trainéiert ML / DL op aner AI un fir festzestellen ob déi geziilt AI potenziell op eng ähnlech Manéier partiell ass
  • Maacht déi bias-trainéiert ML/DL zur Verfügung fir AI Builder ze weisen op wat se oppassen, sou datt se hir Modeller einfach kënne inspizéieren fir ze kucken wéi algorithmesch imputéiert Biases entstinn
  • Exemplifiéiert d'Gefore vu biased AI als Deel vun AI Ethics an Ethical AI Sensibiliséierung iwwer dëst zousätzlech spezifescht Beispill
  • aner

Konklusioun

Loosst eis d'Ouvertureslinn erëm kucken.

Et brauch een een ze kennen.

E puer interpretéieren datt dëst onheemlech verbreet Spréch implizéiert datt wann et drëm geet gëfteg AI erauszekréien, mir solle vertrauen fir gëfteg AI ze bauen an ze benotzen fir aner gëfteg AI z'entdecken an ze këmmeren. Bottom Line: Heiansdo brauch et en Déif fir en aneren Déif ze fangen.

Eng ausgeschwat Bedenken ass datt mir vläicht aus eisem Wee goen fir Dier ze maachen. Wëlle mir AI ausschaffen déi gëfteg ass? Schéngt dat net wéi eng verréckt Iddi? E puer plädéieren hefteg datt mir all gëfteg AI solle verbidden, inklusiv sou AI déi bewosst gebaut gouf och wa se angeblech fir en heroeschen oder galant ass. AI Fir Gutt Zweck.

Squelch gëfteg AI an egal wéi clever oder lëschteg Verkleedung datt et kéint entstoen.

Eng lescht Twist zu dësem Thema fir elo. Mir huelen allgemeng un datt dës berühmt Linn mat Leit oder Saachen ze dinn huet déi schlecht oder sauer Akten maachen. Dat ass wéi mir landen op der Notioun datt et en Déif brauch fir en Déif ze fänken. Vläicht sollte mir dëse Spréchwuert op de Kapp dréinen an et méi e glécklecht Gesiicht maachen wéi en traureg Gesiicht.

Hei ass wéi.

Wa mir AI wëllen déi onparteiesch an net gëfteg ass, ass et denkbar datt et een brauch fir een ze kennen. Vläicht brauch et déi gréissten a Bescht fir weider Grouss a Guttheet ze erkennen an ze generéieren. An dëser Variant vun der Salbei Wäisheet behalen mir eise Bléck op dat glécklecht Gesiicht an zielen eis op d'Erzeechnung ze konzentréieren AI Fir Gutt.

Dat wier eng méi optimistesch an zefriddestellend lëschteg Siicht op et brauch een fir een ze kennen, wann Dir wësst wat ech mengen.

Quell: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- profitabel-och-fir-déi-autonom-selwer-fueren-Autoen/