Legal Begrënnung an AI implantéieren kéint intelligent Mënsch-Wäertausrichtung erreechen seet AI Ethik an AI Gesetz

An der heiteger Kolonn wäert ech eng Onmass vu scheinbar disparate AI-relatéierten Themen an ee flott gewéckelt Stoff weven.

Bass de prett?

Stellt Iech vir datt Dir eng AI-ugedriwwen App benotzt déi Iech hëlleft wann Dir eng Aart vu bedeitende Aufgab maacht. Vläicht ass d'Saach eng finanziell oder kéint gesondheetlech Zesummenhang sinn. D'Essenz ass datt Dir vun der AI ofhängeg sidd fir déi richteg Saach ze maachen an op eng viraussiichtlech sécher a gesond Manéier ze maachen.

Ugeholl datt d'AI an onethescht Territoire geet.

Dir mierkt vläicht net datt d'AI dat mécht.

Zum Beispill kéint d'AI op potenziell verstoppte diskriminatoresch Faktore wéi Rass oder Geschlecht vertrauen, och wann Dir vläicht keng liewensfäeg Mëttel hutt fir déi ongewollt Notzung z'erkennen. Do kritt Dir, ganz eleng, de kuerzen Enn vum Stick iwwer en AI, deen entweder vun Ufank un op eng problematesch Manéier ausgeschafft gouf oder et fäerdeg bruecht huet an zimmlech a grenzend ethesch Gefor ze steieren (ech wäert méi iwwer soen dëst an engem Moment).

Wat kënnt Dir maachen oder wat kann iwwer AI gemaach ginn, déi entscheet en onethesche Wee ze goen?

Nieft dem Versuch virdru den AI ze konstruéieren sou datt et dës Aart vu lëschteg Handlung net mécht, hunn ech och virdru detailléiert datt et e steigend Interesse ass fir en Embedde AI Ethik-Kontroll Bestanddeel an d'Burgeoning Morass vun soss Wild West alles geet AI Systemer op de Maart geheit. D'Iddi ass datt fir ze probéieren eng AI-infuséiert App ze verhënneren aus etheschen Dimensiounen ze goen, mir kënnen zousätzlech AI benotze fir e Check-and-Balance ze maachen. Dës addéiert AI kéint ausserhalb vun der geziilter AI App sinn oder kéint e Komponent sinn, déi direkt an den AI agebonnen oder implantéiert ass, op déi mir e puer Duebelchecken wëllen maachen.

Wéi ech virdru gesot hunn, kuckt de Link hei: "E kierzlech opkomende Trend besteet aus dem Versuch, ethesch Schutzschirmer an den AI ze bauen, déi fänken wéi de Rescht vun engem AI System ufänkt iwwer virausgesate ethesch Grenzen ze goen. An engem Sënn ass d'Zil d'AI selwer ze benotzen fir sech selwer net ethesch schief ze goen. Dir kéint soen datt mir zielen fir AI selwer ze heelen" (Lance Eliot, "Ethesch AI bastelen, déi onethesch AI iwwerwaacht a probéiert schlecht AI z'erhiewen fir ze handelen", Forbes28. Mäerz 2022).

Dir kéint och vun relevant Interessi mäi Buch fannen op AI Guardian Bots, heiansdo als Schutzengel bezeechent, déi d'technesch Ënnerstëtzung vun dësem modernsten AI-bannent-AI embedded Duebelchecker deckt, kuckt de Link hei.

Bottom-line ass datt Äre Speck glécklecherweis gespäichert ka ginn duerch d'Benotzung vun engem embedded AI-Double-Checking Ethik-Mesure-Element, deen entworf an an eng AI-App implantéiert gouf, déi Dir benotzt. Awer wäert dat genuch vun engem Erzéiungsberechtegten sinn fir wierklech sécherzestellen datt d'AI Iech net ganz steift a sech an e souguer hasher schiedleche Buedem dréit?

Dir gesitt, d'AI App kéint anscheinend Leeschtunge illegal handelt.

Et ass eng Saach fir AI ze hunn déi an e groe Beräich geet vun deem wat mir als ethesch oder onethesch Verhalen betruechten. E gläich beonrouegend Verhalen a méiglecherweis verschlechtert Bedenken entstinn AI déi just den Hai spréngt wéi et war an erof geet an déi schaarf Däischtert vun direkt illegalen Handlungen.

Onrechtlech AI ass schlecht. Onerlaabt AI erlaabt ouni iwwerwaacht ze goen ass schlecht. E puer juristesch Geléiert sinn offen besuergt datt d'Advent an d'Pervasivitéit vun der AI graduell an erschreckend eis Schéin vun der Rechtsstaatlechkeet, gesinn meng Analyse op de Link hei.

Waart fir eng zweet, Dir kéint soen.

Dir kéint gebass gin ze denken, datt AI Entwéckler géif ni Programm hir AI géint d'Gesetz ze goen. Onvirstellbar. Nëmme béis Béiser géifen dat maachen (wat, iwwregens, am Kapp behalen datt et déi sinn, déi bewosst AI fir béis Zwecker entwerfen a benotzen, e wuessende Beräich vun Interesse fir Krimineller an anerer, déi AI fir nefaresch Aktivitéiten benotze wëllen).

Entschëllegt, awer et ass Wonschdenken unzehuelen datt all net-béisen AI Entwéckler strikt suergen, datt hir AI voll gesetzlech konsequent ass. Et kéint sinn datt d'AI sech selwer upasst an an illegal Aktivitéit wandert. Natierlech gëtt et och d'Potenzial datt d'AI Entwéckler entweder wollten datt den AI illegal handelt oder datt se net bewosst waren wat illegal versus legal Handlungen ausmaachen wann se d'AI erstallt hunn (jo, dëst ass ganz méiglech, nämlech datt eng heads-down all-Tech AI Team kann ignorant sinn iwwer déi legal Shenanigans vun hirer AI, wat net entschëllegt ass an awer mat alarméierend Frequenz geschitt).

Wat kann iwwer dëst gemaach ginn?

Nach eng Kéier, nieft dem Versuch fir sécherzestellen datt den AI Out-the-Pater ironcladd a legal ass, eng zousätzlech Approche fir Damp ze kréien involvéiert d'Inbedding oder d'Implantatioun vun engem AI Komponent deen legal Duebelchecken fir de Rescht vun der AI App mécht. Sëtzt roueg an dacks onerwaart, dës zousätzlech AI beobachtet de Rescht vun der AI fir ze probéieren z'ënnerscheeden ob d'AI wäert schlëmm ginn oder op d'mannst laanscht d'Limite vu gesetzlechen oder reglementaresche Restriktiounen goen.

Mir hunn elo zwou Aarte vun AI Duebelchecken déi potenziell an eng AI App agebonne sinn:

  • AI Ethik Duebelchecker: An Echtzäit bewäert dës Komponent oder AI Add-in de Rescht vun der AI fir ethesch an onethesch Verhalen déi den AI weist
  • AI Legal Double Checker: An Echtzäit bewäert dës Komponent oder AI Add-in de Rescht vun der AI fir sécherzestellen datt se bannent gesetzleche Keystones bleiwen a fir opkommend illegal Aktivitéite vun der AI z'erreechen.

Fir ze klären, dat sinn relativ nei Konzepter an als solch kann den AI, deen Dir haut benotzt, an enger vun dësen haitege Konditioune sinn:

  • AI déi iwwerhaapt keng Duebelchecker enthält
  • AI deen en AI Ethics Duebelchecker huet abegraff awer keng aner Duebelchecker
  • AI deen en AI Legal Double-Checker enthält awer keng aner Duebelchecker
  • AI déi souwuel en AI Ethics Double-Checker an en AI Legal Double-Checker huet
  • aner

Et ginn e puer däitlech komplizéiert Aspekter fir souwuel den AI Ethics Double-Checker wéi och den AI Legal Double-Checker niewentenee an enger AI App als familiäre Brudder a Schwëster ze schaffen. Dëst ass eng Zort Dualismus déi méi schwéier ka koordinéieren wéi Dir esou ugeholl hutt (ech mengen datt mir all wëssen datt Bridder a Schwësteren déi enkste Verbindunge kënnen hunn, obwuel se och heiansdo kämpfen wéi d'Dickens a kräfteg opposéieren Vue).

Ech hu laang iwwer dës Zort ustrengend diskutéiert Dualismus: "E vernoléissegt Dualismus geschitt an der AI fir Sozial Gutt, deen de Mangel u ëmfaasst souwuel d'Roll vun der kënschtlecher moralescher Agence a vun der kënschtlecher juristescher Begrënnung an fortgeschratten AI Systemer. Efforte vun AI Fuerscher an AI Entwéckler hunn tendéiert sech ze fokusséieren op wéi een kënschtlech moralesch Agenten erstallt an embedingt fir moralesch Entscheedungen ze guidéieren wann en AI System am Feld funktionnéiert, awer hunn net och fokusséiert op d'Benotzung vu kënschtleche legale Begrënnungsfäegkeeten , wat gläich noutwendeg ass fir robust moralesch a juristesch Resultater" (Lance Eliot, "The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good," Harvard University CRCS Annual Conference 2020, Harvard Center for Research and Computation Society)

Wann Dir wëllt nodenken firwat et Spannungen tëscht engem AI Ethics Double-Checker an engem AI Legal Double-Checker kéint sinn, fannt Dir dëst bemierkenswäert Zitat vu verstännegen konzeptueller Wäerter: "D'Gesetz kann e bestëmmten Akt erlaben, och wann deen Akt onmoralesch ass; an d'Gesetz kann en Akt verbidden, och wann deen Akt moralesch zulässlech ass, oder souguer moralesch erfuerderlech" (Shelly Kagan, D'Limite vun der Moral, 1998).

Loosst eis e bëssen de Fokus veränneren a kucken wéi dës Duebelchecker an en anert héich ënnersicht AI Thema schwammen, nämlech Responsabel AI oder eng konsequent Iwwerleeung vun der Ausriichtung vu mënschleche Wäerter an AI.

Déi allgemeng Notioun ass datt mir AI wëllen, déi un déi richteg a wënschenswäert mënschlech Wäerter hält. E puer bezeechnen dëst als Responsabel AI. Anerer ähnlech diskutéieren Verantwortlech AI, Vertrauenswierdeg AI, an AI Ausrichtung, déi all de selwechte Grondsteeprinzip beréieren. Fir meng Diskussioun iwwer dës wichteg Themen, kuckt de Link hei an de Link hei, Just e puer ze Numm.

Wéi kënne mir AI mat mënschleche Wäerter ausriichten?

Wéi virdru virgeschloen, wäerte mir hoffen datt AI Entwéckler bewosst sinn AI z'entwéckelen déi verantwortlech AI Adhésioun erreecht. Leider si se vläicht net, sou wéi déi virdru opgekläerte Grënn. Ausserdeem kënne se probéieren dat ze maachen, an awer trotzdem schléisst d'AI sech selwer ausserhalb vum markante Räich vun etheschen Verhalen unzepassen oder eventuell an illegal Waasser.

Okay, mir mussen dann eis praktesch dandy Duebelchecker als Mëttel berécksiichtegen fir dës Risiken an Belaaschtungen opzemaachen. D'Benotzung vun engem gutt entworfenen AI Ethics Duebelchecker kann materiell hëllefe fir AI mat mënschleche Wäerter auszegläichen. Ähnlech kann d'Benotzung vun engem gutt entwéckelten AI Legal Double-Checker substantiell hëllefe fir AI mat mënschleche Wäerter auszegläichen.

Also, e entscheedend an nach net bekannte Mëttel fir ze sichen op Responsabel AI, Trustworthy AI, Accountable AI, AI Alignment, etc. AI Legal Double-Checker deen onermiddlech funktionnéiert als Duebelcheck op den AI an deem se agebonne sinn.

An dëser Diskussioun wëll ech e bësse méi detailléiert iwwer d'Natur an d'Konstruktioune vun AI Legal Duebelchecker goen, déi an AI agebaut kënne ginn. Fir dat ze maachen, kann et hëllefräich sinn mat Iech e puer zousätzlech Hannergrond iwwer d'Gesamtthema ze deelen AI & Gesetz.

Fir eng Nonsense Untersuchung wéi AI an d'Gesetz matenee vermëschen, kuckt meng Diskussioun op de Link hei. A mengem kresende Bléck op de AI & Gesetz Kopplung, Ech bidden dës einfach Konzept vun zwee grouss Weeër fir AI an d'Gesetz ze interreléieren:

  • (1) Gesetz applizéiert op AI: D'Formuléierung, d'Aféierung an d'Ëmsetze vu Gesetzer wéi applizéiert fir d'Reguléierung oder d'Gouvernance vun der Kënschtlecher Intelligenz an eiser Gesellschaft
  • (2) AI-applizéiert-zu-Gesetz: Kënschtlech Intelligenz Technologie entwéckelt an applizéiert an d'Gesetz abegraff AI-baséiert Legal Reasoning (AILR), infuséiert an LegalTech High-Tech Apps fir autonom oder semi-autonom Affekotaufgaben auszeféieren

Den éischten opgezielte Standpunkt besteet aus der Iwwerleeung wéi existent an nei Gesetzer AI wäerte regéieren. Déi zweet opgezielt Perspektiv huet mat der Uwendung vun AI op d'Gesetz ze dinn.

Dës lescht Kategorie beinhalt normalerweis d'Benotzung vun AI-baséiert Legal Reasoning (AILR) a verschiddenen Online-Tools, déi vun Affekote benotzt ginn. Zum Beispill kann AI en Deel vun engem Contract Life Cycle Management (CLM) Package sinn, deen Affekoten hëlleft andeems se kontraktuell Sprooch identifizéieren déi nëtzlech ass fir nei Kontrakter auszeschaffen oder Kontrakter z'entdecken déi gesetzlech wënschtlech Sprooch hunn, déi Mëssglécker oder gesetzlech Schleifen erlaben. (fir mäi Bléck op sougenannte "Gesetz Geroch" déi duerch AI erkannt kënne ginn, kuckt de Link hei).

Mir wäerten zwangsleefeg AI op d'Gesetz applizéiert hunn dat verfügbar ass fir d'Allgemengheet ze benotzen an dat net erfuerdert datt en Affekot an der Loop ass. De Moment, als Resultat vu verschiddene Restriktiounen, dorënner d'UPL (Unautoriséiert Praktesch vum Gesetz), verfügbar AI-baséiert juristesch Berodungsapps ass eng stéierlech a kontrovers Saach, kuckt meng Diskussioun op de Link hei.

Ech hunn dës Aféierung iwwer AI & Gesetz bruecht fir erauszefannen datt eng aner instrumentell Notzung vun AI op d'Gesetz applizéiert wier AI Legal Duebelchecker ze kreéieren.

Jo, déiselwecht Aart vun technologesch Fäegkeet involvéiert an der Uwendung vun AI op d'Gesetz ass fäeg als duebel Pflicht ze déngen andeems Dir den AI benotzt fir als embedded oder implantéiert AI Legal Double-Checker ze déngen. Den AI Legal Double-Checker ass e Bestanddeel deen a legal Facette beherrscht muss sinn. Wann de Rescht vun der AI App verschidden Handlungen ausféiert, moosst den AI Legal Double-Checker ob d'AI App dat legal a bannent gesetzleche Contrainten mécht.

En AI Legal Double-Checker Komponent brauch net onbedéngt de ganze Spektrum vun allem ze decken wat et iwwer d'Gesetz ze wëssen ass. Ofhängeg vun der Natur vun der AI App wat den Zweck an d'Aktiounen vun der AI allgemeng ugeet, kann den AI Legal Double-Checker vill méi schmuel sinn wat d'juristesch Expertise ugeet, déi et enthält.

Ech hunn en nëtzleche Kader identifizéiert fir ze weisen wéi AI am legale Domain iwwer eng Serie vun autonome Kapazitéiten rangéiert, bekannt als Levels of Autonomie (LoA). Fir en Iwwerbléck gesinn meng Forbes Kolonnpost vum 21. November 2022, "De No-Nonsense Comprehensive Compelling Case Fir Firwat Affekote musse wëssen iwwer AI an d'Gesetz" bei de Link hei, a fir eng detailléiert technesch Ofdreiwung gesinn meng am-Déift Fuerschung Artikel am MIT Computational Law Journal vum 7. Dezember 2021, kuckt de Link hei.

De Kader erklärt fënnef Niveauen vun AI wéi a legal Bestriewunge benotzt:

  • Niveau 0: Keng Automatisatioun fir AI-baséiert legal Aarbecht
  • Niveau 1: Einfach Assistenzautomatiséierung fir AI-baséiert legal Aarbecht
  • Niveau 2: Fortgeschratt Assistenzautomatiséierung fir AI-baséiert legal Aarbecht
  • Niveau 3: Semi-autonom Automatisatioun fir AI-baséiert legal Aarbecht
  • Niveau 4: Domain autonom fir AI-baséiert legal Aarbecht
  • Niveau 5: Ganz autonom fir AI-baséiert legal Aarbecht

Ech wäert se hei kuerz beschreiwen.

Niveau 0 gëtt als keen Automatisatiounsniveau ugesinn. Juristesch Begrënnung a legal Aufgabe ginn iwwer manuell Methoden duerchgefouert a geschéien haaptsächlech iwwer Pabeierbaséiert Approche.

Niveau 1 besteet aus einfacher Assistenzautomatiséierung fir AI legal Begrënnung. Beispiller vun dëser Kategorie wieren d'Benotzung vun alldeeglechen Computer-baséiert Wuertveraarbechtung, d'Benotzung vun alldeeglechen Computer-baséiert Spreadsheets, Zougang zu online juristesch Dokumenter déi elektronesch gespäichert an erëmgewielt, etc.

Niveau 2 besteet aus fortgeschratt Assistenzautomatiséierung fir AI legal Begrënnung. Beispiller vun dëser Kategorie géifen d'Benotzung vu Query-Stil rudimentär Natural Language Processing (NLP), simplistesch Elementer vum Machine Learning (ML), statistesch Analyse Tools fir juristesch Fall Prognosen, etc.

Niveau 3 besteet aus semi-autonomer Automatisatioun fir AI legal Begrënnung. Beispiller vun dëser Kategorie géifen d'Benotzung vu fortgeschrattem Wëssensbaséierte Systemer (KBS) fir juristesch Begrënnung enthalen, d'Benotzung vu Machine Learning an Deep Learning (ML / DL) fir juristesch Begrënnung, fortgeschratt NLP, a sou weider.

Niveau 4 besteet aus Domain autonom Computer-baséiert Systemer fir AI legal Begrënnung. Dësen Niveau benotzt d'konzeptuell Notioun vun Operational Design Domains (ODDs), wéi fir selbstfahrend Autoen benotzt, awer wéi op de legale Domain applizéiert. Juristesch Domaine kënnen no funktionnelle Beräicher klasséiert ginn, sou wéi Familljerecht, Immobiliegesetz, Insolvenzgesetz, Ëmweltrecht, Steiergesetz, asw.

Niveau 5 besteet aus voll autonom Computer-baséiert Systemer fir AI legal Begrënnung. An engem Sënn ass den Niveau 5 de Superset vum Niveau 4 am Sënn vun all méigleche legale Domainen. W.e.g. bewosst datt dëst zimlech eng grouss Uerdnung ass.

Dir kënnt dës Niveauen vun der Autonomie par rapport zu den ähnlechen Uwendungen virstellen wann Dir iwwer selbstfahrend Autoen an autonom Gefierer diskutéiert (och baséiert op den offiziellen SAE Standard, kuckt meng Ofdeckung op de Link hei). Mir hunn nach keng SAE Level 5 selbstfahrend Autoen. Mir ginn an SAE Level 4 selbstfahrend Autoen. Déi meescht konventionell Autoe sinn um SAE Level 2, während e puer vun den neien Autoen an SAE Level 3 drécken.

Am legale Beräich hu mir nach keen Niveau 5 AILR. Mir beréieren op e puer Niveau 4, awer an extrem schmuele ODDs. Niveau 3 fänkt un d'Liicht vum Dag ze gesinn, während de Grondsteen vun AILR haut virun allem um Niveau 2 ass.

E rezente Fuerschungsartikel iwwer AI wéi op d'Gesetz applizéiert huet eng Typifikatioun poséiert bekannt als Gesetz informéiert Code. Dat seet de Fuerscher: „Ee vun den Haaptziler vun der Gesetz informéiert Code Agenda ass AI ze léieren de Geescht vum Gesetz ze verfollegen" (John J. Nay, "Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans", Nordweste Journal vun Technologie an intellektuell Propriétéit, Band 20, nächste). Et ginn e puer wesentlech Iwwerleeungen, déi d' Gesetz informéiert Code Mantra bréngt op an ech wäert Iech duerch e puer vun deene Keystone Virschrëfte goen.

Ier ech an d'Thema daucht, wéilt ech als éischt e wesentleche Grondlag iwwer AI a besonnesch AI Ethik an AI Gesetz leeën, fir sécherzestellen datt d'Diskussioun kontextuell sënnvoll ass.

De Rising Sensibiliséierung vun Ethesch AI An Och AI Gesetz

Déi rezent Ära vun AI gouf ufanks als sinn ugesinn AI Fir Gutt, dat heescht datt mir AI fir d'Verbesserung vun der Mënschheet benotze kënnen. Op den Fersen vun AI Fir Gutt koum d'Erkenntnis datt mir och ënnerdaach sinn AI Fir Schlecht. Dëst beinhalt AI déi entwéckelt oder selbstverännert ass fir diskriminatoresch ze sinn a berechnungswahlen mécht, déi ongerecht Biases imposéieren. Heiansdo ass d'AI esou gebaut, während an anere Fäll an dat ongewollt Territoire geet.

Ech wëll ganz sécher maachen datt mir op der selwechter Säit sinn iwwer d'Natur vun der heiteger AI.

Et gëtt keng AI haut déi sentient ass. Mir hunn dat net. Mir wëssen net ob sentient AI méiglech wäert sinn. Keen kann passend viraussoen ob mir sentient AI erreechen, an och net ob sentient AI iergendwéi wonnerbar spontan an enger Form vu computational kognitiver Supernova entstinn (normalerweis als Singularitéit bezeechent, kuckt meng Ofdeckung op de Link hei).

D'Aart vun AI op déi ech fokusséiere besteet aus der net-sentienten AI déi mir haut hunn. Wa mir gär iwwer sentient AI spekuléiere wëllen, kéint dës Diskussioun an eng radikal aner Richtung goen. Eng sentient AI wier vermeintlech vu mënschlecher Qualitéit. Dir musst berücksichtegen datt de sentienten AI de kognitiven Äquivalent vun engem Mënsch ass. Méi esou, well e puer spekuléiere kënne mir super-intelligent AI hunn, ass et denkbar datt sou AI schlussendlech méi schlau wéi Mënschen kéint sinn (fir meng Exploratioun vu super-intelligenten AI als Méiglechkeet, kuckt d'Ofdeckung hei).

Ech géif staark proposéieren datt mir d'Saachen op d'Äerd halen an déi haut computational net-sentient AI betruechten.

Realiséiere datt d'AI vun haut net fäeg ass op iergendeng Manéier ze "denken" par rapport zum mënschlechen Denken. Wann Dir mat Alexa oder Siri interagéiert, kënnen d'Gespréichskapazitéiten ähnlech wéi mënschlech Fäegkeeten schéngen, awer d'Realitéit ass datt et computational ass a mënschlech Erkenntnis feelt. Déi lescht Ära vun AI huet extensiv Notzung vu Machine Learning (ML) an Deep Learning (DL) gemaach, déi computational Muster Matching profitéieren. Dëst huet zu AI Systemer gefouert, déi d'Erscheinung vu mënschlechähnleche Proclivitéiten hunn. Mëttlerweil gëtt et haut keng AI déi e Gesinn vu gesonde Mënscheverstand huet an och keng vun der kognitiver Wonnerung vu robustem mënschlecht Denken.

Sidd ganz virsiichteg fir den haitegen AI ze anthropomorphiséieren.

ML / DL ass eng Form vu computational Muster Matching. Déi üblech Approche ass datt Dir Daten iwwer eng Entscheedungsaarbecht sammelt. Dir fiddert d'Donnéeën an d'ML / DL Computermodeller. Dës Modeller sichen mathematesch Mustere ze fannen. Nodeems Dir esou Mustere fonnt hutt, wa se fonnt goufen, benotzt den AI System dann dës Mustere wann Dir nei Daten begéint. No der Presentatioun vun neien Donnéeën ginn d'Muster op Basis vun den "alen" oder historeschen Donnéeën ugewannt fir eng aktuell Entscheedung ze maachen.

Ech mengen, Dir kënnt roden, wou dat geet. Wann d'Mënschen, déi d'Muster op Entscheedunge getraff hunn, ongewollt Biases integréiert hunn, sinn d'Chancen datt d'Donnéeën dëst op subtile awer bedeitende Weeër reflektéieren. Machine Learning oder Deep Learning computational Muster Matching wäert einfach probéieren d'Donnéeën deementspriechend mathematesch ze mimikéieren. Et gëtt kee Gesinn vu gesonde Mënscheverstand oder aner sentienten Aspekter vun der AI erstallt Modeller per se.

Ausserdeem kënnen d'AI Entwéckler och net realiséieren wat lass ass. Déi arcane Mathematik am ML / DL kéint et schwéier maachen déi elo verstoppte Biases erauszekréien. Dir géift mat Recht hoffen an erwaarden datt d'AI Entwéckler fir déi potenziell begruewe Biases testen, obwuel dëst méi komplizéiert ass wéi et schéngt. Eng zolitt Chance existéiert datt och mat relativ extensiv Tester datt et Biases nach ëmmer an de Muster-passende Modeller vun der ML / DL agebonne sinn.

Dir kënnt e bëssen de berühmten oder berühmte Spréchwuert vun Gerempels-an Dreck-eraus benotzen. D'Saach ass, dëst ass méi ähnlech wéi Biases-an déi süchteg infuséiert ginn wéi Biases ënner dem AI ënnerdaach. Den Algorithmus Entscheedungsprozess (ADM) vun AI gëtt axiomatesch mat Ongläichheeten belaascht.

Net gutt.

All dëst huet besonnesch bedeitend AI Ethik Implikatiounen a bitt eng praktesch Fënster op Lektioune geléiert (och ier all d'Lektioune geschéien) wann et drëm geet AI ze gesetzlech ze maachen.

Nieft der AI Ethik Virschrëften am Allgemengen ze benotzen, gëtt et eng entspriechend Fro ob mir Gesetzer solle hunn fir verschidde Benotzung vun AI ze regéieren. Nei Gesetzer ginn op Bundes-, Staats- a lokalen Niveauen ëmginn, déi d'Gamme an d'Natur betreffen wéi d'AI soll ausgeschafft ginn. Den Effort fir esou Gesetzer auszeschaffen an duerchzesetzen ass graduell. AI Ethik déngt op d'mannst als e betruechten Stopgap, a wäert bal sécher zu engem gewësse Grad direkt an déi nei Gesetzer agebaut ginn.

Sidd bewosst datt e puer onbestänneg argumentéieren datt mir keng nei Gesetzer brauchen déi AI decken an datt eis existent Gesetzer genuch sinn. Si warnen viraus datt wa mir e puer vun dësen AI Gesetzer asetzen, mir déi gëllen Gäns ëmbréngen andeems se Fortschrëtter an der AI erofklammen, déi immens gesellschaftlech Virdeeler bidden.

A fréiere Spalten hunn ech déi verschidden national an international Efforten iwwerdeckt fir Gesetzer ze reglementéieren déi AI regelen, kuckt de Link hei, zum Beispill. Ech hunn och déi verschidde AI Ethik Prinzipien a Richtlinnen ofgedeckt déi verschidden Natiounen identifizéiert an ugeholl hunn, dorënner zum Beispill d'Vereenten Natiounen Effort wéi d'UNESCO Set vun AI Ethics déi bal 200 Länner ugeholl hunn, kuckt de Link hei.

Hei ass eng hëllefräich Keystone Lëscht vun etheschen AI Critèren oder Charakteristiken betreffend AI Systemer déi ech virdru genau exploréiert hunn:

  • Transparenz
  • Gerechtegkeet & Gerechtegkeet
  • Net-Maleficenz
  • Responsabilitéit
  • Privatsphär
  • Benefizitéit
  • Fräiheet & Autonomie
  • Trust
  • Nohaltegkeet
  • Dignitéit
  • Solidaritéit

Dës AI Ethik Prinzipien sollen eescht vun AI Entwéckler benotzt ginn, zesumme mat deenen, déi AI Entwécklungsefforten verwalten, an och déi, déi schlussendlech op AI Systemer Felder a Betreiung maachen.

All Akteuren am ganzen AI Liewenszyklus vun der Entwécklung an der Notzung ginn am Kader vum Verhalen vun den etabléierten Normen vun der ethescher AI ugesinn. Dëst ass e wichtege Highlight well déi üblech Viraussetzung ass datt "nëmmen Coderen" oder déi, déi den AI programméieren, ënnerleien un den AI Ethics Notioune ze halen. Wéi virdru hei ënnerstrach, brauch et en Duerf fir AI z'entwéckelen an ze Feld, a fir deen d'ganz Duerf muss beherrscht sinn an un d'AI Ethik Viraussetzungen halen.

Ech hunn och viru kuerzem de AI Bill vun Rechter dat ass den offiziellen Titel vum US Regierung offiziellen Dokument mam Titel "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" dat war d'Resultat vun engem Joer laangen Effort vum Office of Science and Technology Policy (OSTP) ). Den OSTP ass eng Bundesentitéit déi déngt fir den amerikanesche President an den US Executive Office iwwer verschidden technologesch, wëssenschaftlech an technesch Aspekter vun nationaler Bedeitung ze beroden. An deem Sënn kënnt Dir soen datt dësen AI Bill of Rights en Dokument ass dat guttgeheescht an vum existente US White House guttgeheescht ass.

Am AI Bill of Rights ginn et fënnef Schlësselkategorien:

  • Sécher an effektiv Systemer
  • Algorithmesch Diskriminéierungsschutz
  • Dateschutz
  • Notiz an Erklärung
  • Mënschlech Alternativen, Iwwerleeung a Réckfall

Ech hunn déi Virschrëfte virsiichteg iwwerpréift, kuckt de Link hei.

Elo datt ech eng hëllefräich Fëllement op dës verbonnen AI Ethik an AI Gesetz Themen geluecht hunn, si mir prett fir an d'heady Thema vun AI Legal Double-Checkers an d'Räich vun Gesetz informéiert Code.

AI Legal Double-Checkers agebaut an AI Fir Mënsch-Wäert Ausrichtung

Ech bezéie mech heiansdo op AI legal Double-Checkers iwwer en Akronym vun AI-LDC. Dëst ass e bësse visuell jarring fir déi, déi net mat der Acronym vertraut sinn. Als solch wäert ech dëst speziell Akronym net an dëser Diskussioun benotzen, awer wollt Iech et als Heads-up ernimmen.

Fir e puer vun de Komplexitéite vun AI Legal Double-Checkers auszepaken, loosst eis dës Haaptpunkte adresséieren:

  • Benotzung vun AI Legal Double Checkers als AI Mënsch-Wäerter Ausriichtungsmechanismus
  • Méi erweidert AI wäert entspriechend méi robust AI Legal Duebelchecker erfuerderen
  • AI Legal Double-Checkers maachen d'Gesetz an a maachen notamment kee Gesetz (viraussiichtlech)
  • Delikat Gläichgewiicht tëscht AI Juristesch Ausféierung vum Gesetz als Regelen versus Standarden
  • Erfuerdert Beweis vum Pudding wann et ëm d'AI kënnt, déi dem Gesetz respektéiert

Wéinst Plazbeschränkungen, wäert ech just dës fënnef Punkte fir de Moment ofdecken, awer w.e.g. oppassen fir weider Ofdeckung a menger Kolonn déi zousätzlech a gläich bemierkenswäert Considératiounen iwwer dës séier evoluéierend a virugoend Themen deckt.

De Moment, engagéiert Äre Sécherheetsgurt a maacht Iech prett fir eng erfrëschend Rees.

  • Benotzung vun AI Legal Double Checkers als AI Mënsch-Wäerter Ausriichtungsmechanismus

Et gi vill Weeër fir ze probéieren eng harmonesch Ausrichtung tëscht AI a mënschleche Wäerter z'erreechen.

Wéi virdru scho gesot, kënne mir AI Ethik Virschrëfte produzéieren a promulgéieren a sichen AI Entwéckler ze kréien an déi, déi Feld an AI bedreiwen, fir dës Keystones ze halen. Leider wäert dëst eleng net den Trick maachen. Dir hutt e puer Deviser déi zwangsleefeg de Message net kréien. Dir hutt e puer Contrivers déi ethesch AI flaunten a probéieren déi e bësse loose-goosey verschriwwene Prinzipien ze ëmgoen. A sou weider.

D'Benotzung vu "mëll Gesetz" Approche mat AI Ethik muss bal onverhënnerbar mat "haart Gesetz" Weeër gepaart ginn, sou wéi Gesetzer a Reglementer passéieren, déi e staarkt Signal un all déi AI kreéieren oder benotzen. De laangen Aarm vum Gesetz kéint Iech kommen, wann Dir AI net verstänneg benotzt. De Klang vu Prisongsdieren, déi kléngen, kéint schaarf Opmierksamkeet kréien.

E grousse Problem ass awer, datt heiansdo d'Scheierdier d'Päerd schonn eraus gelooss huet. En AI deen ausgestallt gëtt wäert potenziell all méiglech illegal Handlungen produzéieren a weider esou maachen bis net nëmme gefaangen ass, awer och wann e puer Duerchféierung schlussendlech eropgeet fir de Flux vun illegalen Handlungen ze stäipen. All dat kann Zäit huelen. Mëttlerweil gi Mënschen op déi eng oder aner Manéier schueden.

An dësem Foray kënnt den AI Legal Duebelchecker.

Andeems Dir an enger AI App wunnt, ass den AI Legal Double-Checker fäeg direkt z'entdecken wann d'AI schéngt géint d'Gesetz ze lafen. Den AI Legal Double-Checker kéint den AI a senge Bunnen stoppen. Oder d'Komponente kéint d'Mënsche alarméieren iwwer déi erkannt onerlaabt Aktivitéiten, dëst op enger fristgerechter Basis ze maachen, déi d'Iwwerwaacher an dréngend Korrektiounsaktiounen produzéiere kënnen. Et gëtt och déi betruecht formaliséiert Logbicher, déi de Komponente ka kreéieren, e konkrete Schëld vun engem Audit Trail ubidden fir Zwecker déi negativ Handlungen vun der AI ze kodifizéieren.

Eis Gesetzer ginn gesot eng Form vu Multi-Agent Konglomeratioun ze sinn, sou datt d'Gesetzer zwangsleefeg eng Mëschung sinn aus deem wat d'Gesellschaft probéiert huet als Gläichgewiicht tëscht méiglecherweis konfliktende Meenungen iwwer richteg an ongerecht gesellschaftlech Verhalen ze werfen. En AI Legal Double-Checker baséiert op eise Gesetzer verkierpert also dës Mëschung.

Notamment ass dëst méi wéi nëmmen eng Lëscht vun definitive legale Reegelen ze programméieren. Gesetzer tendéieren méi mëllbar ze sinn a striewen no iwwergräifend Standarden, anstatt déi meeschte Minutte vu mikroskopesche Reegelen ze spezifizéieren. Komplexitéite si vill.

Zréck op dat fréier bemierkt Fuerschungspabeier, hei ass wéi dës Considératiounen och iwwer d'AI Alignment Verfollegung gekuckt kënne ginn: "Gesetz, déi applizéiert Philosophie vu Multi-Agent Ausrichtung, erfëllt dës Critèren eenzegaarteg. Ausriichtung ass e Problem well mir kënnen net ex Ante Spezifizéieren Regelen déi voll a beweisbar gutt AI Verhalen direkten. Ähnlech kënnen d'Parteien zu engem gesetzleche Kontrakt net all Kontingent vun hirer Bezéiung viraussoen, an d'Gesetzgeber kënnen net déi spezifesch Ëmstänn viraussoen, ënner deenen hir Gesetzer applizéiert ginn. Dofir ass vill vum Gesetz e Konstellatioun vu Standarden "(ibid).

Gesetz an en AI Legal Double-Checker ze verkierperen ass vill méi Erausfuerderung wéi Dir am Ufank ugeholl hutt.

Wéi AI fortgeet, musse mir esou Fortschrëtter deementspriechend profitéieren. Et stellt sech eraus datt dat wat gutt ass fir d'Gäns och gutt fir d'Gander ass. Déi vun eis, déi Fortschrëtter maachen an der AI wéi ugewannt op d'Gesetz, drécken d'Enveloppe op AI an dréien zweifelhaft nei Fortschrëtter, déi schlussendlech an den AI Fortschrëtt kënne fidderen.

  • Méi erweidert AI wäert entspriechend méi robust AI Legal Duebelchecker erfuerderen

E Kaz-a-Maus-Gambit konfrontéiert dëst Thema.

D'Chancen sinn datt wéi AI weider fortgeschratt gëtt, all AI Legal Double-Checker Komponent wäert d'Saache méi schwéier a méi schwéier fannen ze këmmeren. Zum Beispill, eng AI App, déi iwwerpréift gëtt, kéint nei entwéckelt super-sneaky Weeër hunn fir déi illegal Handlungen ze verstoppen déi d'AI mécht. Och wann d'AI net eng ënnerierdesch Streck hëlt, kann d'Gesamtkomplexitéit vun der AI eleng eng beängschtegend Hürd sinn fir ze sichen den AI Legal Double-Checker ze bewäerten.

Hei ass wéi dëst besonnesch bedeitend gëtt.

Ugeholl en AI Entwéckler oder eng Firma déi AI benotzt proklaméiert datt et en AI Legal Double-Checker gëtt deen an der AI-baséiert App agebonne gouf. Voila, si schéngen elo hir Hänn vun all weider Bedenken gewäsch ze hunn. Den AI Legal Duebelchecker këmmert sech ëm alles.

Net sou.

Den AI Legal Double-Checker kéint net genuch sinn fir d'Natur vun der AI App involvéiert. Et gëtt och d'Méiglechkeet datt den AI Legal Double-Checker veroudert gëtt, vläicht net aktualiséiert gëtt mat de leschte Gesetzer betreffend d'AI App. Eng ganz Rëtsch Grënn kënne virausgesi ginn firwat déi blo Präsenz vun engem AI Legal Duebelchecker keng Sëlwerkugel wäert sinn.

Betruecht dës Abléck vun der fréier zitéierter Fuerschung: "Als de modernste fir AI Fortschrëtter kënne mir iterativ méi héich Baren vu demonstréierte legale Verständnisfäegkeeten setzen. Wann en Entwéckler behaapt datt hire System fortgeschratt Fäegkeeten op Aufgaben huet, solle se entspriechend fortgeschratt gesetzlech Verständnis a juristesch Begrënnungsfäegkeete vun der AI weisen, déi praktesch keng Schwieregkeete Plafong hunn wann Dir d'Morass vu Gesetzer a Reglementer iwwer Zäit, Präzedenz a Juridictioun berücksichtegt. " (ibid).

  • AI Legal Double-Checkers maachen d'Gesetz an a maachen notamment kee Gesetz (viraussiichtlech)

Ech si sécher datt e puer vun iech entsat sinn iwwer d'Iddi dës AI Legal Duebelchecker ze hunn.

Eng dacks gestëmmte Suerg ass datt mir anscheinend AI erlaben eis Gesetzer fir eis ze entscheeden. Gudd, Dir mengt vläicht, e Stéck Automatisatioun wäert d'Mënschheet iwwerhuelen. Déi verstoppt embedded AI Legal Duebelchecker ginn d'Standardkinneke vun eise Gesetzer. Wat och ëmmer se maachen, wäert sinn wat d'Gesetz schéngt ze sinn.

D'Mënsche wäerte vun AI regéiert ginn.

An dës AI Legal Duebelchecker sinn de rutschegen Hang deen eis dohinner bréngt.

E Géigeargument ass datt esou Gespréicher d'Stuff vu Verschwörungstheorien ass. Dir sidd wild postuléiert a gitt Iech an eng Tizzy. D'Realitéit ass datt dës AI Legal Duebelchecker net sentient sinn, si wäerten de Planéit net iwwerhuelen, an iwwer hiren existenziellen Risiko hypen ass kloer preposterous an immens iwwerschratt.

Alles an allem, bleiwen mat enger roueger a rationaler Haltung, musse mir bewosst sinn datt d'AI Legal Double-Checkers déngen fir d'Gesetz entspriechend ze reflektéieren an net duerch Design an och net duerch Zoufall weider goen fir iergendwéi Standard an dat geéiert Räich ze maachen Gesetz. Ofgesi vun de Gefillsextrapolatiounen, kënne mir sécher averstane sinn datt et eng reell an dréngend Suerg ass datt den AI Legal Double-Checker op en Enn kéint déi richteg Natur vun engem bestëmmte Gesetz falsch representéieren.

Am Géigesaz, kënnt Dir behaapten datt dofir dat besonnescht "falsch representéiert" Gesetz am Wesentlechen nei gemaach gëtt well et net méi passend bedeit wat mam eigentleche Gesetz virgesi war. Ech vertrauen datt Dir éierlech gesi kënnt wéi dëst eng subtil awer erzielend Iwwerleeung ass. Zu all Zäitpunkt kann den AI Legal Double-Checker op virtueller Basis nei Gesetzer maachen oder soen "halluzinéieren" einfach duerch wéi d'AI Komponent d'Gesetz interpretéiert wéi ursprénglech uginn oder an der AI verkierpert (fir meng Ofdeckung) vun AI sougenannte Halluzinatiounen, kuckt de Link hei).

Opgepasst op dëst muss strikt ausgeübt ginn.

Zu dësem Thema bitt déi uewe genannte Fuerschungsstudie dëse parallele Gedanke a Saache Versuche fir dës helleg Linn ze vermeiden: "Mir zielen net datt AI d'Legitimitéit huet Gesetz ze maachen, gesetzlech Viraussetzungen ze setzen oder Gesetz ëmzesetzen. Tatsächlech géif dat eis Approche ënnergruewen (a mir solle bedeitend Efforte investéieren fir dat ze verhënneren). Éischter ass dat ambitiéisst Zil vum Gesetzesinformatiounscode d'Generaliséierungsbarkeet vun existente gesetzleche Konzepter a Standarden an eng validéiert AI Leeschtung ze codéieren an z'integréieren "(ibid).

  • Delikat Gläichgewiicht tëscht AI Juristesch Ausféierung vum Gesetz als Regelen versus Standarden

Gesetzer sinn knaschteg.

Fir bal all Gesetz iwwer d'Bicher gëtt et méiglecherweis eng Villfalt vun Interpretatiounen iwwer dat wat d'Gesetz an der aktueller Praxis festleet. Am Parlance vum AI Feld bezéie mir op Gesetzer als semantesch zweedeiteg. Dat ass wat d'Entwécklung vun AI mécht wéi d'Gesetz applizéiert sou eng spannend an och gläichzäiteg schwiereg Erausfuerderung. Am Géigesaz zu der präzis Zifferkräizung, déi Dir gesitt fir soen finanziell orientéiert AI Uwendungen, enthält de Wonsch eis Gesetzer an AI ze verkierperen, mat engem Tsunami vu semanteschen Ambiguitéiten ëmzegoen.

A mengem Fondatiounsbuch iwwer d'Grondlage vum AI Legal Reasoning (AILR), diskutéieren ech wéi virdru Versuche just Gesetzer an eng Rei vu begrenzte Reegelen ze kodifizéieren eis net sou wäit bruecht hunn wéi mir wëllen am legale Beräich goen (kuckt de Link hei). Den AILR vun haut muss eng Integratioun tëscht der Notzung vu Reegelen an deem wat iwwergräifend Standarden genannt ginn, déi d'Gesetz duerstellt, enthalen.

Dëse wichtege Gläichgewiicht kann op dës Manéier ausgedréckt ginn: "An der Praxis landen déi meescht gesetzlech Bestëmmungen iergendwou op engem Spektrum tëscht pure Regel a pure Standard, a juristesch Theorie kann hëllefen déi richteg Kombinatioun vu "Regel-Ness" an "Standard-Ness" ze schätzen. wann Dir Ziler vun AI Systemer spezifizéiert" (ibid).

  • Erfuerdert Beweis vum Pudding wann et ëm d'AI kënnt, déi dem Gesetz respektéiert

Eppes wëllen ass anescht wéi eppes ze hunn.

Dat Geck vu Wäisheet kënnt op wann se proposéieren datt och wann mir AI Legal Duebelchecker wëllen hunn, mir vill musse garantéieren datt se funktionnéieren a richteg funktionnéieren. Notéiert datt dëst eng aner haart an ustrengend Hürd presentéiert. Ech hu virdru déi lescht Fortschrëtter an Erausfuerderunge bei der Verifizéierung an der Validatioun vun AI ofgedeckt, kuckt de Link hei.

Wéi am Fuerschungspabeier bemierkt: "Fir de Spalt unzegoen, ier AI Modeller an ëmmer méi agentesch Kapazitéiten ofgesat ginn, zB voll autonom Gefierer op grousse Stroossen, sollt d'Partei deployéieren d'Verständnis vum System vu mënschlechen Ziler, Politiken a gesetzleche Standarden weisen. Eng Validatiounsprozedur kéint dem AI säi "Verständnis" vun der "Bedeitung" vu legale Konzepter illustréieren "(ibid).

Konklusioun

Ech encouragéieren Iech ze betruechten Iech matzemaachen op dëser nobeler Sich fir AI Legal Double-Checkers ze bauen an ze Feld. Mir brauche méi Opmierksamkeet a Ressourcen fir dës virtuéis Verfollegung gewidmet.

Dëst bitt och duebel Pflicht, wéi virdru scho gesot, fir AI Legal Reasoning (AILR) z'erreechen, déi benotzt kënne fir Affekoten ze hëllefen a potenziell direkt vun der Allgemengheet benotzt ginn. Tatsächlech argumentéieren e puer vehement datt dat eenzegt liewensfäeg Mëttel fir zu engem méi vollen Zougang zu Gerechtegkeet (A2J) z'erreechen ass iwwer d'Handwierk vun AI, déi legal Kapazitéiten verkierpert a vun all zougänglech ass.

Ee séiere leschte Punkt fir elo.

D'Diskussioun bis elo huet betount datt den AI Legal Double-Checker géif agebaut oder an AI implantéiert ginn. Dëst ass tatsächlech de primäre Fokus vun deenen déi dëst opkomende Räich fuerschen an ënnerhuelen.

Hei ass eng Fro derwäert ze iwwerdenken.

Huelt deng Denkenkapp op.

Firwat benotzt net AI Legal Duebelchecker an all Software?

Den Haapt Saach ass datt anstatt exklusiv den AI Legal Duebelchecker an AI ze benotzen, vläicht sollte mir eis Siicht erweideren. All Zorte vu Software kënne legal verwandelt ginn. AI huet zouginn dem Léiw säin Undeel vun der Opmierksamkeet kritt wéinst de Weeër wéi AI normalerweis a Gebrauch gesat gëtt, sou wéi d'Darm-Wrenching Entscheedungen ze maachen, déi d'Mënschen an hirem Alldag beaflossen. Dir kënnt awer einfach behaapten datt et vill net-AI Systemer sinn déi datselwecht maachen.

Am Wesentlechen sollte mir keng Software gratis loossen fir d'Gesetz ze vermeiden oder ze vermeiden.

Erënnert och virdru datt ech déi zwou Kategorien vun der Kombinatioun vun AI an dem Gesetz ernimmt hunn. Mir hunn hei op d'Benotzung vun AI konzentréiert wéi op d'Gesetz applizéiert. Op der anerer Säit vun der Mënz ass d'Applikatioun vum Gesetz op AI. Ugeholl datt mir Gesetzer asetzen déi d'Benotzung vun AI Legal Duebelchecker erfuerderen.

Dëst kéint fir d'éischt op AI Systemer ageschränkt sinn, besonnesch déi, déi als besonnesch héich-Risiko bewäert sinn. No an no kéint déi selwecht AI Legal Double-Checker Ufuerderung och op Net-AI Software verlängert ginn. Nees, keng gratis Reesen.

Wärend Dir op déi uewe berécksiichtegt Nuddelen, wäert ech d'Saachen als Ofschloss Teaser oppassen. Wa mir probéieren AI Legal Duebelchecker ze erfuerderen, kënne mir och och iwwer AI Ethics Duebelchecker maachen. D'Benotzung vun engem AI Legal Double-Checker ass nëmmen d'Halschent vun der Geschicht, a mir kënnen och d'AI Ethik Bedenken net vernoléissegen oder vergiessen.

Ech schléissen dëse frëndlechen Discours mat engem vu menge Liiblingszitater of. No de weise Wierder vum Earl Warren, de berühmte Jurist, deen als Chief Justice vun den USA gedéngt huet: "Am ziviliséierte Liewen schwëmmt Gesetz an engem Mier vun Ethik."

Et ass vläicht am beschten déi knaschteg a spruddelende AI Legal Double-Checkers an AI Ethics Double-Checker a begeeschterten Notzung ze setzen wa mir de Kapp iwwer potenziell dreiwend schwéier Mier vu sauer AI an dour Net-AI Systemer wëllen halen, déi eis Sécherheet a Gefor bréngen .

Si kënnen d'Liewensvest vun der Mënschheet sinn.

Quell: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- an-a-Gesetz/