Verantwortlech AI genéisst Preeminent Boost Via AI Ethik Proklamatioun Vun Top Professional Society D'ACM

Hutt Dir d'Nouvelle gesinn oder héieren?

Eng aner Rei vun AI Ethik Virschrëfte gouf nei proklaméiert.

Raucos Applaus, wann Dir wëllt.

Dann erëm, Dir kéint net hunn et gemierkt wéinst der Tatsaach datt sou vill aner AI Ethik Dekreter zënter enger Zäit ronderëm schwiewen. E puer soen datt déi anscheinend non-stop Perkolatioun vun etheschen AI Proklamatiounen e bëssen numbing gëtt. Wéi vill brauche mir? Kann iergendeen mat hinnen all halen? Wéi eng ass am beschten? Ginn mir vläicht iwwer AI Ethik Prinzipien? A sou weider.

Gutt, an dësem spezifesche Fall soen ech, datt mir dës lescht Ergänzung vum Club besonnesch solle begréissen.

Ech wäert Asiicht erkläre firwat an engem Moment.

Als éischt, als Erklärung, bezéien ech op d'AI Ethik Virschrëft, déi elo offiziell bekannt ass als "Erklärung iwwer Prinzipien fir verantwortlech Algorithmesch Systemer" déi viru kuerzem vum ACM Technology Policy Council publizéiert gouf 26. Oktober 2022. Kudos ginn un d'Equipe vun Experten déi dëst bewäert Dokument zesummegesat hunn, dorënner Co-Lead Autoren Jeanna Matthews (Clarkson University) a Ricardo Baeza-Yates (Universitat Pompeu Fabra) ).

Déi vun iech, déi wëssen, kéinte bei enger noer Inspektioun mierken datt dëst Dokument liicht vertraut schéngt.

Gutt Aen!

Dës lescht Inkarnatioun ass am Wesentlechen eng aktualiséiert an erweidert Variant vun der fréierer gemeinsamer "Erklärung iwwer Algorithmesch Transparenz a Verantwortung", déi vum ACM US Technology Policy Committee an dem ACM Europe Technology Policy Committee am Joer 2017 promulgéiert gouf. Trei Lieser vu menge Kolonnen kënnen erënneren Ech hunn vun Zäit zu Zäit d'Dekret vun 2017 a menger Kolonnofdeckung vu Schlësselfacetten ernimmt, déi AI Ethik an AI Gesetz ënnerleien.

Fir meng extensiv a lafend Bewäertung an Trendanalyse vun AI Ethik an AI Gesetz, kuckt de Link hei an de Link hei, Just e puer ze Numm.

Dës lescht Ausso vun der ACM ass besonnesch wichteg aus verschiddene vitale Grënn.

Hei ass et.

D'ACM, dat ass e prakteschen Akronym fir den Associatioun fir Computing Maschinnen, gëtt als déi weltgréisste Informatik-konzentréiert Associatioun ugesinn. Mat enger geschätzter 110,000 oder esou Memberen ass den ACM e laangjärege Pionéier am Informatikberäich. D'ACM produzéiert e puer vun den héchste wëssenschaftleche Fuerschungen am Informatikberäich, a bitt och professionell Netzwierker an Appel un Informatiker och. Als solch ass d'ACM eng wichteg Stëmm, déi allgemeng déi High-Tech representéiert an dauernd probéiert huet de Computerfeld ze förderen (den ACM gouf 1947 gegrënnt).

Ech kéint e bësse vun enger perséinlecher Notiz iwwer dëst och. Wéi ech am Lycée fir d'éischt an de Computer ukomm sinn, sinn ech bei der ACM bäitrieden an un hire pädagogesche Programmer deelgeholl, besonnesch déi spannend Chance fir an hirem alljährlechen Computerprogramméierungsconcours matzemaachen (sou Concoursen sinn haut heefeg allgemeng a bezeechent typesch als Hackathons). Ech bleiwen an der ACM involvéiert wärend ech op der Fachhéichschoul iwwer mäi lokalen Uni Kapitel a krut eng Geleeënheet iwwer Leedung ze léieren andeems ech e Studentekapittel Offizéier ginn. Wéi ech an d'Industrie koumen, sinn ech e professionnelle Kapitel ugeschloss an hunn nach eng Kéier eng Führungsroll iwwerholl. Spéider duerno, wéi ech Professer ginn, hunn ech an ACM Comitée a Redaktiounsrot gedéngt, zesumme mam Sponsoring vum Campus Student Kapitel. Och haut sinn ech aktiv an der ACM, ënner anerem am ACM US Technology Policy Committee.

Ech genéissen d'ACM beandrockend an dauerhaft Visioun vum liewenslaange Léieren a Karriärentwécklung.

Op alle Fall, wat déi lescht AI Ethics Ausso ugeet, dréit d'Tatsaach, datt dëst vun der ACM erausginn ass, e staarkt Gewiicht. Dir kënnt vernünfteg behaapten datt d'ethesch AI Virschrëfte d'Totalitéit oder d'kollektiv Stëmm vun enger weltwäiter Grupp vu Rechenfachleit sinn. Dat seet do eppes.

Et gëtt och den Aspekt datt anerer am Computerberäich inspiréiert ginn fir opzemaachen an ze lauschteren am Sënn vu berücksichtegt wat d'Ausso vun hire Matbierger Informatikkollegen deklaréiert. Also och fir déi, déi net an der ACM sinn oder näischt iwwer dee geéierte Grupp wëssen, wäert et hoffentlech e groussen Interessi sinn fir erauszefannen, ëm wat d'Ausso geet.

Mëttlerweil sinn déi, déi sinn ausserhalb vum Rechenfeld kéint op d'Ausso gezunn ginn als eng Aart hannert de Kulissen Insider kucken op wat déi an Computeren iwwer Ethesch AI soen. Ech wëll awer ënnersträichen datt d'Erklärung fir jiddereen geduecht ass, net nëmmen déi an der Computergemeinschaft, an dofir am Kapp behalen datt d'AI Ethik Viraussetzungen iwwerall sinn, wéi et war.

Schlussendlech gëtt et eng zousätzlech Twist, déi wéineg géifen berécksiichtegen.

Heiansdo gesinn Auslänner Informatikverbänn als Knie-déif an der Technologie an net besonnesch bewosst vun de gesellschaftlechen Impakt vu Computeren an AI. Dir kënnt gebass ginn ze iwwerhuelen datt sou professionell Entitéite sech nëmmen ëm déi lescht an wäermsten Duerchbréch an der Hardware oder Software këmmeren. Si gi vun der Ëffentlechkeet, op eng einfach gesot grujeleg Manéier, als Techie-Nerd ugesinn.

Fir de Rekord richteg ze setzen, sinn ech an de sozialen Impakt vum Informatik ënnergeet, well ech fir d'éischt op Computeren ukomm sinn, an och d'ACM ass och déif mat esou Themen engagéiert.

Fir jiddereen iwwerrascht datt dës Ausso iwwer AI Ethik Viraussetzungen zesummegesat a verëffentlecht gouf vun der ACM, si bezuelen net op déi laangjäreg Fuerschung an Aarbecht déi iwwer dës Saache stattfënnt. Ech fuerderen och drun, datt déi Interesséiert sech gutt an d'ACM kucken Code of Ethics, e strenge professionnelle Ethikcode, deen iwwer d'Joren evoluéiert huet an ënnersträicht datt Systementwéckler sech bewosst musse sinn, respektéieren an oppassen iwwer d'ethesch Auswierkunge vun hiren Bestriewen a Wueren.

AI huet d'Feier gestierzt fir iwwer Informatik Ethik informéiert ze ginn.

D'Visibilitéit vun etheschen a legale Considératiounen am Informatikberäich ass enorm eropgaang mat der Entstoe vun der haiteger AI. Déi am Beruff ginn informéiert an heiansdo getrommelt iwwer déi richteg Opmierksamkeet op AI Ethik an AI Law Themen. Gesetzgeber ginn ëmmer méi bewosst vun AI Ethik an AI Gesetzer Aspekter. Firmen weise sech op d'Notioun datt d'AI déi se entwerfen oder benotzen souwuel avantagéis ass an awer och heiansdo enorm Risiken a potenziell Nodeeler opmaacht.

Loosst eis auspaken wat an de leschte Joren stattfonnt huet, sou datt e passende Kontext ka etabléiert ginn ier mir an dës lescht Set vun AI Ethik Virschrëfte sprangen.

De Rising Sensibiliséierung vun Ethesch AI

Déi rezent Ära vun AI gouf ufanks als sinn ugesinn AI Fir Gutt, dat heescht datt mir AI fir d'Verbesserung vun der Mënschheet benotze kënnen. Op den Fersen vun AI Fir Gutt koum d'Erkenntnis datt mir och ënnerdaach sinn AI Fir Schlecht. Dëst beinhalt AI déi entwéckelt oder selbstverännert ass fir diskriminatoresch ze sinn a berechnungswahlen mécht, déi ongerecht Biases imposéieren. Heiansdo ass d'AI esou gebaut, während an anere Fäll an dat ongewollt Territoire geet.

Ech wëll ganz sécher maachen datt mir op der selwechter Säit sinn iwwer d'Natur vun der heiteger AI.

Et gëtt keng AI haut déi sentient ass. Mir hunn dat net. Mir wëssen net ob sentient AI méiglech wäert sinn. Keen kann passend viraussoen ob mir sentient AI erreechen, an och net ob sentient AI iergendwéi wonnerbar spontan an enger Form vu computational kognitiver Supernova entstinn (normalerweis als Singularitéit bezeechent, kuckt meng Ofdeckung op de Link hei).

D'Aart vun AI op déi ech fokusséiere besteet aus der net-sentienten AI déi mir haut hunn. Wa mir gär iwwer sentient AI spekuléiere wëllen, kéint dës Diskussioun an eng radikal aner Richtung goen. Eng sentient AI wier vermeintlech vu mënschlecher Qualitéit. Dir musst berücksichtegen datt de sentienten AI de kognitiven Äquivalent vun engem Mënsch ass. Méi esou, well e puer spekuléiere kënne mir super-intelligent AI hunn, ass et denkbar datt sou AI schlussendlech méi schlau wéi Mënschen kéint sinn (fir meng Exploratioun vu super-intelligenten AI als Méiglechkeet, kuckt d'Ofdeckung hei).

Ech géif staark proposéieren datt mir d'Saachen op d'Äerd halen an déi haut computational net-sentient AI betruechten.

Realiséiere datt d'AI vun haut net fäeg ass op iergendeng Manéier ze "denken" par rapport zum mënschlechen Denken. Wann Dir mat Alexa oder Siri interagéiert, kënnen d'Gespréichskapazitéiten ähnlech wéi mënschlech Fäegkeeten schéngen, awer d'Realitéit ass datt et computational ass a mënschlech Erkenntnis feelt. Déi lescht Ära vun AI huet extensiv Notzung vu Machine Learning (ML) an Deep Learning (DL) gemaach, déi computational Muster Matching profitéieren. Dëst huet zu AI Systemer gefouert, déi d'Erscheinung vu mënschlechähnleche Proclivitéiten hunn. Mëttlerweil gëtt et haut keng AI déi e Gesinn vu gesonde Mënscheverstand huet an och keng vun der kognitiver Wonnerung vu robustem mënschlecht Denken.

Sidd ganz virsiichteg fir den haitegen AI ze anthropomorphiséieren.

ML / DL ass eng Form vu computational Muster Matching. Déi üblech Approche ass datt Dir Daten iwwer eng Entscheedungsaarbecht sammelt. Dir fiddert d'Donnéeën an d'ML / DL Computermodeller. Dës Modeller sichen mathematesch Mustere ze fannen. Nodeems Dir esou Mustere fonnt hutt, wa se fonnt goufen, benotzt den AI System dann dës Mustere wann Dir nei Daten begéint. No der Presentatioun vun neien Donnéeën ginn d'Muster op Basis vun den "alen" oder historeschen Donnéeën ugewannt fir eng aktuell Entscheedung ze maachen.

Ech mengen, Dir kënnt roden, wou dat geet. Wann d'Mënschen, déi d'Muster op Entscheedunge getraff hunn, ongewollt Biases integréiert hunn, sinn d'Chancen datt d'Donnéeën dëst op subtile awer bedeitende Weeër reflektéieren. Machine Learning oder Deep Learning computational Muster Matching wäert einfach probéieren d'Donnéeën deementspriechend mathematesch ze mimikéieren. Et gëtt kee Gesinn vu gesonde Mënscheverstand oder aner sentienten Aspekter vun der AI erstallt Modeller per se.

Ausserdeem kënnen d'AI Entwéckler och net realiséieren wat lass ass. Déi arcane Mathematik am ML / DL kéint et schwéier maachen déi elo verstoppte Biases erauszekréien. Dir géift mat Recht hoffen an erwaarden datt d'AI Entwéckler fir déi potenziell begruewe Biases testen, obwuel dëst méi komplizéiert ass wéi et schéngt. Eng zolitt Chance existéiert datt och mat relativ extensiv Tester datt et Biases nach ëmmer an de Muster-passende Modeller vun der ML / DL agebonne sinn.

Dir kënnt e bëssen de berühmten oder berühmte Spréchwuert vun Gerempels-an Dreck-eraus benotzen. D'Saach ass, dëst ass méi ähnlech wéi Biases-an déi süchteg infuséiert ginn wéi Biases ënner dem AI ënnerdaach. Den Algorithmus Entscheedungsprozess (ADM) vun AI gëtt axiomatesch mat Ongläichheeten belaascht.

Net gutt.

All dëst huet besonnesch bedeitend AI Ethik Implikatiounen a bitt eng praktesch Fënster op Lektioune geléiert (och ier all d'Lektioune geschéien) wann et drëm geet AI ze gesetzlech ze maachen.

Nieft der AI Ethik Virschrëften am Allgemengen ze benotzen, gëtt et eng entspriechend Fro ob mir Gesetzer solle hunn fir verschidde Benotzung vun AI ze regéieren. Nei Gesetzer ginn op Bundes-, Staats- a lokalen Niveauen ëmginn, déi d'Gamme an d'Natur betreffen wéi d'AI soll ausgeschafft ginn. Den Effort fir esou Gesetzer auszeschaffen an duerchzesetzen ass graduell. AI Ethik déngt op d'mannst als e betruechten Stopgap, a wäert bal sécher zu engem gewësse Grad direkt an déi nei Gesetzer agebaut ginn.

Sidd bewosst datt e puer onbestänneg argumentéieren datt mir keng nei Gesetzer brauchen déi AI decken an datt eis existent Gesetzer genuch sinn. Si warnen viraus datt wa mir e puer vun dësen AI Gesetzer asetzen, mir déi gëllen Gäns ëmbréngen andeems se Fortschrëtter an der AI erofklammen, déi immens gesellschaftlech Virdeeler bidden.

A fréiere Spalten hunn ech déi verschidden national an international Efforten iwwerdeckt fir Gesetzer ze reglementéieren déi AI regelen, kuckt de Link hei, zum Beispill. Ech hunn och déi verschidde AI Ethik Prinzipien a Richtlinnen ofgedeckt déi verschidden Natiounen identifizéiert an ugeholl hunn, dorënner zum Beispill d'Vereenten Natiounen Effort wéi d'UNESCO Set vun AI Ethics déi bal 200 Länner ugeholl hunn, kuckt de Link hei.

Hei ass eng hëllefräich Keystone Lëscht vun etheschen AI Critèren oder Charakteristiken betreffend AI Systemer déi ech virdru genau exploréiert hunn:

  • Transparenz
  • Gerechtegkeet & Gerechtegkeet
  • Net-Maleficenz
  • Responsabilitéit
  • Privatsphär
  • Benefizitéit
  • Fräiheet & Autonomie
  • Trust
  • Nohaltegkeet
  • Dignitéit
  • Solidaritéit

Dës AI Ethik Prinzipien sollen eescht vun AI Entwéckler benotzt ginn, zesumme mat deenen, déi AI Entwécklungsefforten verwalten, an och déi, déi schlussendlech op AI Systemer Felder a Betreiung maachen.

All Akteuren am ganzen AI Liewenszyklus vun der Entwécklung an der Notzung ginn am Kader vun der Verhalen vun den etabléierten Normen vun der ethescher AI ugesinn. Dëst ass e wichtegen Highlight well déi üblech Viraussetzung ass datt "nëmmen Coderen" oder déi, déi den AI programméieren, ënnerleien un den AI Ethics Notioune ze halen. Wéi virdru hei ënnerstrach, brauch et en Duerf fir AI z'entwéckelen an ze feld, a fir deen d'ganz Duerf muss beherrscht sinn a sech un d'AI Ethik Virschrëfte halen.

Ech hunn och viru kuerzem de AI Bill vun Rechter dat ass den offiziellen Titel vum US Regierung offiziellen Dokument mam Titel "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" dat war d'Resultat vun engem Joer laangen Effort vum Office of Science and Technology Policy (OSTP) ). Den OSTP ass eng Bundesentitéit déi déngt fir den amerikanesche President an den US Executive Office iwwer verschidden technologesch, wëssenschaftlech an technesch Aspekter vun nationaler Bedeitung ze beroden. An deem Sënn kënnt Dir soen datt dësen AI Bill of Rights en Dokument ass dat guttgeheescht an vum existente US White House guttgeheescht ass.

Am AI Bill of Rights ginn et fënnef Schlësselkategorien:

  • Sécher an effektiv Systemer
  • Algorithmesch Diskriminéierungsschutz
  • Dateschutz
  • Notiz an Erklärung
  • Mënschlech Alternativen, Iwwerleeung a Réckfall

Ech hunn déi Virschrëfte virsiichteg iwwerpréift, kuckt de Link hei.

Elo datt ech eng hëllefräich Fëllement iwwer dës verbonne AI Ethik an AI Gesetz Themen geluecht hunn, si mir prett fir an déi kierzlech verëffentlecht ACM "Ausso iwwer Prinzipien fir Verantwortlech Algorithmic Systemer" ze sprangen (iwwregens, well den Dokumenttitel bezitt sech op verantwortlech algorithmic Systemer, Dir wëllt vläicht e Bléck op meng Bewäertung vun huelen wat et heescht vun schwätzen Vertrauenswierdeg AI, kuckt de Link hei).

Maacht Iech prett fir eng Rees an dës lescht Set vun AI Ethik Prinzipien.

Grab intensiv an d'ACM deklaréiert AI Ethik Viraussetzungen

D'ACM Ausso iwwer Ethesch AI besteet aus dësen néng Keystones:

  • Legitimitéit a Kompetenz
  • Schued minimiséieren
  • Sécherheet a Privatsphär
  • Transparenz
  • Interpretabilitéit an Erklärbarkeet
  • Ënnerhaltbarkeet
  • Contestability an Auditabilitéit
  • Verantwortung a Verantwortung
  • Limitéiert Ëmweltimpakt

Wann Dir dëse leschte Set mat anere notamment verfügbare Sets vergläicht, gëtt et vill Ähnlechkeet oder ähnlech Korrespondenzen tëscht hinnen.

Engersäits kënnt Dir dat als gutt Zeechen huelen.

Mir kënnen allgemeng hoffen datt déi ganz Partie vun AI Ethik Prinzipien, déi ronderëm schwiewen, all op déiselwecht Gesamtdeckung zesummekommen. Wann Dir gesitt datt ee Set e bësse vergläichbar ass mat engem anere Set, gëtt Iech e Schëld vu Vertrauen datt dës Sets am selwechte Ballpark sinn an net iergendwéi an engem verwonnerlechen lénksen Feld eraus.

Eng potenziell Plainte vun e puer ass datt dës verschidde Sets ongeféier d'selwecht schéngen, wat dann méiglecherweis Duercherneen oder op d'mannst Konsternatioun schaaft wéinst der Qualitéit datt mir net vill anscheinend duplikativ Lëschte sollten hunn. Kann et net nëmmen eng Lëscht ginn? De Problem ass natierlech datt et keen einfache Wee gëtt fir all esou Lëschten eenheetlech genee d'selwecht ze kréien. Verschidde Gruppen a verschidden Entitéiten hunn dëst op verschidde Manéieren ukomm. Déi gutt Noriicht ass datt se zimlech all déiselwecht iwwergräifend Conclusioun erreecht hunn. Mir kënnen erliichtert sinn datt d'Sets keng grouss Differenzen hunn, wat eis vläicht onroueg géif maachen, wann et keen allgemenge Konsens wier.

E Contrian kann opfuerderen datt d'Gemeinlechkeet vun dëse Lëschte beonrouegend ass, argumentéiert datt et vläicht e Gruppdenken lass ass. Vläicht denken all dës disparate Gruppen déiselwecht Aart a kënnen net iwwer d'Norm kucken. Mir all falen an eng identesch Fal. D'Lëschte verankeren eist Denken anscheinend a mir kënnen net iwwer eis eegen Nues gesinn.

Iwwert eis Nues kucken ass ouni Zweiwel eng wäertvoll Ursaach.

Ech si sécher oppe fir ze héieren wat contrarians ze soen hunn. Heiansdo fänken se Wand vun eppes, datt d' Titanic Richtung e risegen Äisbierg. Mir kéinten e puer Adler-Ae Lookouts benotzen. Awer, an der Matière vun dësen AI Ethik Viraussetzungen, gouf et näischt definitiv artikuléiert vu Contrairen, déi anscheinend offensichtlech ënnersträichen oder Suergen iwwer eng ongewollt Gemeinsamkeet erliewen. Ech mengen et geet eis gutt.

An dësem ACM Set sinn et e puer besonnesch Notabele oder Standout Punkten, déi ech mengen, besonnesch bemierkenswäert Opmierksamkeet wäerte sinn.

Als éischt hunn ech déi Top-Level Phrasing gär déi e bëssen anescht ass wéi d'Norm.

Zum Beispill, Referenz op Legitimitéit a Kompetenz (déi éischt Kugelgeschoss) evitéiert e Schëld vun der Wichtegkeet vu Designer- a Gestiounskompetenzen verbonne mat AI. Zousätzlech, der Legitimitéit Catchphrase hëlt eis op en Enn an d'AI Ethik an AI Gesetz Räich. Ech soen dëst well vill vun den AI Ethik Virschrëfte bal ganz op déi ethesch Implikatioune konzentréieren, awer schéngen ze verzichten oder ze schei ze schei fir och déi juristesch Auswierkunge ze notéieren. Am juristesche Beräich ginn ethesch Considératiounen dacks als "mëll Gesetz" ugesinn, während d'Gesetzer iwwer d'Bicher als "haard Gesetzer" ausgesinn ginn (dat heescht datt se d'Gewiicht vun de juristesche Geriichter droen).

Ee vu menge Liiblings Aussoe vun allen Zäiten gouf vum berühmten Jurist Earl Warren gesot: "Am ziviliséierte Liewen schwëmmt Gesetz an engem Mier vun Ethik."

Mir musse sécherstellen datt d'AI Ethik Virschrëfte och déi haart Gesetz Säit vun de Saachen ëmfaassen an ënnersträichen, wéi an der Ausschaffung, der Ausféierung an der Duerchféierung vun AI Gesetzer.

Zweetens, ech schätzen datt d'Lëscht enthält contestability an auditability.

Ech hunn ëmmer erëm iwwer de Wäert geschriwwen fir e roude Fändel ze konkurréiere oder z'erhiewen wann Dir un engem AI System ënnerleien, kuckt de Link hei. Ausserdeem wäerte mir ëmmer méi nei Gesetzer gesinn, déi AI Systemer forcéiere fir iwwerpréift ze ginn, wat ech laang iwwer d'New York City (NYC) Gesetz iwwer d'Auditviraussetzunge vun AI Systemer diskutéiert hunn, déi fir Employéen a Promotiounen benotzt ginn, kuckt de Link hei. Leider, a wéi ech offen dat NYC neit Gesetz kritiséieren, wann dës Auditabilitéitsgesetzer fehlerhaft sinn, wäerte se wahrscheinlech méi Probleemer kreéieren wéi se léisen.

Drëttens gëtt et e graduellen Erwächen datt AI Nohaltegkeetsprobleemer kann duerchdréien an ech si frou ze gesinn datt de Ëmwelt- Thema krut en Top-Niveau Rechnung an dësen AI Ethik Viraussetzungen (kuckt déi lescht Kugel vun der Lëscht).

Den Akt fir en AI System ze kreéieren kann eleng vill Rechenressourcen verbrauchen. Déi Rechenressourcen kënnen direkt oder indirekt Nohaltegkeet Usurpers sinn. Et gëtt e Tradeoff fir ze berécksiichtegen iwwer d'Virdeeler déi en AI ubitt versus d'Käschten déi mat der AI kommen. Déi lescht vun den ACM Kugelartikelen notéiert d'Nohaltegkeet an d'Ëmweltvirschléi déi mat AI entstinn. Fir meng Ofdeckung vun AI-verbonne Kuelestoffofdrock Themen, kuckt de Link hei.

Elo datt mir en Himmel-héich Bléck op d'ACM Lëscht vun AI Ethics Viraussetzunge gemaach hunn, hu mir als nächst eis Zänn méi déif an d'Waasser gesat.

Hei sinn déi offiziell Beschreiwunge fir jiddereng vun den héijen Niveau AI Ethik Virschrëfte (zitéiert aus der formeller Ausso):

1. "Legitimitéit a Kompetenz: Designer vun algorithmesche Systemer sollen d'Gestiounskompetenz an explizit Autorisatioun hunn fir esou Systemer ze bauen an z'installéieren. Si mussen och Expertise am Applikatiounsdomän hunn, eng wëssenschaftlech Basis fir de geplangte Gebrauch vun de Systemer, a wäit als sozial legitim ugesi ginn vun Akteuren, déi vum System beaflosst sinn. Juristesch an ethesch Bewäertunge musse gemaach ginn fir ze bestätegen datt all Risiken, déi vun de Systemer agefouert ginn, proportional zu de Probleemer sinn, déi behandelt ginn, an datt all Benefice-Schued Trade-offs vun all relevanten Akteuren verstane ginn.

2. "Schued minimiséieren: Manager, Designer, Entwéckler, Benotzer an aner Akteuren vun algorithmesche Systemer solle sech bewosst sinn iwwer déi méiglech Feeler a Biases, déi an hirem Design, Implementatioun a Gebrauch involvéiert sinn, an de potenzielle Schued, deen e System fir Individuen a Gesellschaft verursaache kann. Organisatioune solle routinéiert Impakt Bewäertungen op Systemer maachen, déi se benotzen, fir ze bestëmmen ob de System Schued generéiere kéint, besonnesch diskriminatoresch Schued, an entspriechend Mitigéierungen uwenden. Wa méiglech, solle se aus Moossname vun der aktueller Leeschtung léieren, net nëmme Mustere vu fréiere Entscheedungen, déi selwer diskriminéierend kënne sinn.

3. "Sécherheet a Privatsphär: Risiko vu béiswëlleg Parteien kann ofgeschaaft ginn andeems Dir Sécherheets- a Privatsphär beschten Praktiken an all Phase vum Liewenszyklus vun de Systemer aféieren, inklusiv robust Kontrollen fir nei Schwachstelle ze reduzéieren, déi am Kontext vun algorithmesche Systemer entstinn.

4. "Transparenz: System Entwéckler ginn encouragéiert d'Art a Weis wéi spezifesch Datesätz, Variabelen a Modeller fir Entwécklung, Training, Validatioun an Testen ausgewielt goufen, wéi och déi spezifesch Moossnamen déi benotzt goufen fir Daten an Ausgangsqualitéit ze garantéieren, kloer ze dokumentéieren. Systemer sollen hiren Niveau vum Vertrauen an all Ausgang uginn an d'Mënsche sollen intervenéieren wann d'Vertrauen niddereg ass. Entwéckler sollen och d'Approche dokumentéieren, déi benotzt gi fir potenziell Biases z'entdecken. Fir Systemer mat kriteschen Impakt op Liewen a Wuelbefannen, sollten onofhängeg Verifizéierung a Validatiounsprozeduren erfuerderlech sinn. Ëffentlech Iwwerpréiwung vun den Donnéeën a Modeller bitt maximal Méiglechkeet fir Korrektur. D'Entwéckler sollen also Drëtt Partei Tester am ëffentlechen Interessi erliichteren.

5. "Interpretabilitéit an Erklärbarkeet: Manager vun algorithmesche Systemer ginn encouragéiert Informatioun ze produzéieren iwwer béid Prozeduren déi déi agestallte Algorithmen verfollegen (Interpretabilitéit) an déi spezifesch Entscheedungen déi se huelen (Erklärbarkeet). Erklärbarkeet ka grad esou wichteg sinn wéi Genauegkeet, besonnesch an ëffentleche politesche Kontexter oder all Ëmfeld an deem et Bedenken ass wéi d'Algorithmen schief kënne ginn fir eng Grupp iwwer eng aner ouni Unerkennung ze profitéieren. Et ass wichteg z'ënnerscheeden tëscht Erklärungen an no der Tatsaach Rationaliséierungen, déi net d'Beweiser oder den Entscheedungsprozess reflektéieren, dee benotzt gëtt fir d'Konklusioun z'erreechen, déi erkläert gëtt.

6. "Ënnerhalt: Beweiser vun all algorithmesche Systemer 'Soundness soll uechter hir Liewenszyklus gesammelt ginn, dorënner Dokumentatioun vun System Ufuerderunge, den Design oder Ëmsetzung vun Ännerungen, Test Fäll a Resultater, an e Log vun Feeler fonnt a fix. Richteg Ënnerhalt kann Retraining Systemer mat neien Trainingsdaten erfuerderen an / oder d'Modeller ersetzen.

7. "Contestability an Auditabilitéit: Reguléierer sollen d'Adoptioun vu Mechanismen encouragéieren, déi Individuen a Gruppen et erlaben d'Resultater a Fro ze stellen an Erhuelung fir negativ Effekter ze sichen, déi aus algorithmesch informéiert Entscheedungen entstinn. Manager solle suergen datt Daten, Modeller, Algorithmen an Entscheedunge opgeholl ginn, sou datt se iwwerpréift kënne ginn an d'Resultater replizéiert kënne ginn a Fäll wou Schued verdächtegt oder behaapt gëtt. Auditstrategie solle ëffentlech gemaach ginn fir Individuen, ëffentlech Interesseorganisatiounen a Fuerscher z'erméiglechen Verbesserungen ze iwwerpréiwen an ze recommandéieren.

8. "Verantwortung a Verantwortung: Ëffentlech a privat Organer solle verantwortlech gemaach ginn fir Entscheedunge vun Algorithmen déi se benotzen, och wann et net machbar ass am Detail z'erklären wéi dës Algorithmen hir Resultater produzéiert hunn. Esou Kierper solle verantwortlech sinn fir ganz Systemer wéi se an hire spezifesche Kontexter ofgesat ginn, net nëmme fir déi eenzel Deeler déi e bestëmmte System ausmaachen. Wann d'Problemer an automatiséierte Systemer festgestallt ginn, sollen d'Organisatiounen, déi verantwortlech sinn fir dës Systemer z'installéieren, déi spezifesch Handlungen dokumentéieren, déi se huelen fir de Problem ze léisen an ënner wéi enge Ëmstänn d'Benotzung vun esou Technologien soll suspendéiert oder ofgeschloss ginn.

9. "Limitéiert Ëmweltimpakt: Algorithmesch Systemer solle konstruéiert ginn fir Schätzunge vun den Ëmweltimpakten ze berichten, dorënner Kuelestoffemissioune vu béid Trainings- an Operatiounsrechnungen. AI Systemer solle konzipéiert sinn fir sécherzestellen datt hir Kuelestoffemissioune raisonnabel sinn de Grad vun der Genauegkeet erfuerderlech vum Kontext an deem se agesat ginn.

Ech vertrauen datt Dir jidderengem vun deenen entscheedende AI Ethik Virschrëften eng virsiichteg a fréier Liesung gitt. Huelt se w.e.g. zum Häerz.

Konklusioun

Et gëtt e subtile awer gläich entscheedenden Deel vun der ACM Ausso, déi ech gleewen, datt vill onbedéngt iwwersinn. Loosst mech sécherstellen dëst op Är Opmierksamkeet ze bréngen.

Ech alludéieren op eng Portioun, déi iwwer de schreckleche Conundrum diskutéiert fir d'Ausbezuelen ze weien, déi mat den AI Ethik Virschrëfte verbonne sinn. Dir gesitt, déi meescht Leit maachen dacks vill mindless Kappknäppchen wann Dir Ethesch AI Prinzipien liest an huelen un datt all Viraussetzunge gläich a Gewiicht sinn, an all Virschrëfte ginn ëmmer déiselwecht optimal Erscheinung vu Veruechtung a Wäert kritt.

Net an der realer Welt.

Beim Gummi trëfft d'Strooss, all Zort AI, déi souguer e Modicum vu Komplexitéit huet, wäert d'AI Ethik Viraussetzunge béis testen wéi e puer vun den Elementer genuch erreechbar iwwer e puer vun den anere Prinzipien. Ech mierken datt Dir haart kéint ausruffen datt all AI muss op all AI Ethik Virschrëfte maximéieren, awer dëst ass net besonnesch realistesch. Wann dat de Stand ass deen Dir wëllt huelen, da trauen ech Iech ze soen datt Dir wahrscheinlech déi meescht oder bal all AI Hiersteller a Benotzer muss soen fir de Buttek zouzemaachen an AI ganz ewechzehuelen.

Kompromëss musse gemaach ginn fir AI aus der Dier erauszekommen. Wann dat gesot gëtt, plädéieren ech net fir Ecker ze schneiden déi AI Ethik Virschrëfte verletzen, an och net implizéieren datt se AI Gesetzer verletzen. E bestëmmte Minimum muss erfëllt ginn, an iwwer deem et drëm geet méi ze streiden. Um Enn muss e Gläichgewiicht suergfälteg beurteelt ginn. Dëse Balanceakt muss opmierksam gemaach ginn, explizit, gesetzlech, a mat AI Ethik als bona fide an oprecht gehalen Iwwerzeegung (Dir wëllt vläicht kucken wéi Firme AI Ethics Boards benotzen fir dës feierlech Approche ze probéieren, kuckt de Link hei).

Hei sinn e puer Punkten, déi d'ACM Deklaratioun iwwer d'Komplexitéite vun den Ofkommes ernimmt (zitéiert aus dem formellen Dokument):

  • "Léisungen solle proportional zum Problem sinn, dee geléist gëtt, och wann dat d'Komplexitéit oder d'Käschte beaflosst (zB d'Benotzung vun der ëffentlecher Videoiwwerwaachung fir eng einfach Prognosetask ze refuséieren)."
  • "Eng breet Varietéit vun Performance Metriken solle berücksichtegt ginn a kënnen anescht gewiicht ginn op Basis vun der Applikatioun Domain. Zum Beispill, an e puer Gesondheetsariichtungsapplikatiounen kënnen d'Effekter vu falschen Negativer vill méi schlëmm sinn wéi falsch Positiver, wärend an der krimineller Justiz d'Konsequenze vu falsche Positiver (zB eng onschëlleg Persoun Prisong) vill méi schlëmm kënne sinn wéi falsch Negativer. Déi wënschenswäert operationell Systemopstellung ass selten dee mat maximaler Genauegkeet.
  • "Bedenken iwwer Privatsphär, Schutz vun Handelsgeheimnisser oder Offenbarung vun Analysen, déi béisaarteg Akteuren erlaben de System ze spillen, kënnen d'Aschränkung vun Zougang zu qualifizéierten Individuen justifiéieren, awer se sollten net benotzt ginn fir d'Begrenzung vun Drëttpersounen ze justifiéieren oder d'Entwéckler vun der Verpflichtung ze entschëllegen. Feeler z'erkennen an ze reparéieren."
  • "Transparenz muss mat Prozesser fir Rechenschaftspflicht gepaart ginn, déi Akteuren, déi vun engem algorithmesche System beaflosst sinn, erlaabt sinn sënnvoll Erhuelung fir Schued ze sichen. Transparenz däerf net benotzt gi fir e System ze legitiméieren oder d'Verantwortung un aner Parteien ze transferéieren.
  • "Wann den Impakt vun engem System héich ass, kann e méi erklärbare System léiwer sinn. A ville Fäll gëtt et keen Austausch tëscht Erklärbarkeet a Genauegkeet. An e puer Kontexter kënnen awer falsch Erklärungen nach méi schlëmm sinn wéi keng Erklärung (zB an de Gesondheetssystemer kann e Symptom mat ville méigleche Krankheeten entspriechen, net nëmmen eng).

Déi, déi AI entwéckelen oder benotzen, kënne vläicht net offensichtlech d'Ofdreiwungen realiséieren, déi se konfrontéieren. Top Leadere vun enger Firma kënnen naiv unhuelen datt den AI den Maximum op all AI Ethik Prinzipien entsprécht. Si gleewen entweder dëst well se keng Ahnung iwwer d'AI sinn, oder se wëllen dëst gleewen a maache vläicht e Wink-Wink fir einfach AI ze adoptéieren.

D'Chancen sinn datt wann Dir net substantiell an offen d'Tradeoffs konfrontéiert, wäert mat engem AI ophalen, dee Schued wäert produzéieren. Dës Schued wäerten am Tour méiglecherweis eng Firma op potenziell grouss Verbëndlechkeete opmaachen. Ausserdeem kënne konventionell Gesetzer fir méiglech kriminell Handlunge verbonne mat der AI kommen, zesumme mat den neien AI-fokusséierte Gesetzer, déi och op dëst hammeren. Eng Tonne Zillen waart iwwer d'Käpp vun deenen, déi mengen, si kënnen hire Wee ronderëm d'Ofdreiwungen ofschléissen oder déi déif net bewosst sinn datt d'Ofdreiwungen existéieren (eng zerstéierend Realisatioun wäert zwangsleefeg op si falen).

Ech ginn dat lescht Wuert fir elo zu dësem Thema zum Schlussaspekt vun der ACM Ausso well ech mengen et mécht eng robust Aarbecht fir z'erklären wat dës Ethesch AI Virschrëfte makroskopesch zielen fir erauszebréngen:

  • "Déi virdru Recommandatiounen konzentréieren sech op de verantwortlechen Design, Entwécklung an Notzung vun algorithmesche Systemer; Haftung muss duerch Gesetz an ëffentlech Politik bestëmmt ginn. D'Erhéijung vun der Kraaft vun algorithmesche Systemer an hir Notzung an liewenskritesch a konsequent Uwendungen bedeit datt grouss Suergfalt muss ausgeübt ginn fir se ze benotzen. Dës néng instrumental Prinzipien sollen inspiréierend sinn fir Diskussiounen ze lancéieren, Fuerschung ze initiéieren an Gouvernancemethoden z'entwéckelen fir Virdeeler fir eng breet Palette vu Benotzer ze bréngen, wärend Zouverlässegkeet, Sécherheet a Verantwortung förderen. Um Enn ass et de spezifesche Kontext deen de korrekten Design an d'Benotzung vun engem algorithmesche System an Zesummenaarbecht mat Vertrieder vun all betraffene Akteuren definéiert "(zitéiert aus dem formellen Dokument).

Wéi d'Wierder vun der Wäisheet eis intelligent soen, fänkt eng Rees vun dausend Meilen mat engem éischte Schrëtt un.

Ech bieden Iech mat AI Ethik an AI Gesetz vertraut ze ginn, wat och ëmmer den éischte Schrëtt ze huelen fir Iech unzefänken, an dann hëllefe fir dës vital Bestriewungen weiderzeféieren. D'Schéinheet ass datt mir nach ëmmer an der Kandheet sinn fir ze sammelen wéi mir mat AI verwalten a gesellschaftlech ëmgoen, also gitt Dir um Rez-de-Chaussée an Är Efforten kënnen Är Zukunft an d'Zukunft fir eis all beweisen.

D'AI Rees huet just ugefaang a vital éischt Schrëtt sinn nach amgaang.

Quell: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- Beruffsverband-der-acm/