3 Grënn Är Organisatioun Extern Algorithmus Bewäerter brauch

Vum Satta Sarmah-Hightower

Geschäftsleit pressen all de Wäert, deen se kënnen aus kënschtlecher Intelligenz (AI) ausdrécken. Eng 2021 KPMG Etude fënnt eng Majoritéit vun de Regierungs-, Industrieproduktiouns-, Finanzservicer, Retail, Life Science, a Gesondheetsspezialisten soen datt AI op d'mannst mëttelméisseg funktionell an hiren Organisatiounen ass. D'Etude fënnt och d'Halschent vun de Befroten soen datt hir Organisatioun d'Adoptioun vun AI beschleunegt huet als Äntwert op d'Covid-19 Pandemie. Bei Organisatiounen wou AI ugeholl gouf, seet op d'mannst d'Halschent datt d'Technologie d'Erwaardungen iwwerschratt huet.

AI Algorithmen sinn ëmmer méi verantwortlech fir eng Vielfalt vun den haitegen Interaktiounen an Innovatiounen - vu personaliséierten Produkt Empfehlungen an Clientszerwiss Erfahrungen fir Banken Prêten Décisiounen a souguer Police Äntwert.

Awer fir all d'Virdeeler déi se ubidden, kommen AI Algorithmen mat grousse Risiken wa se net effektiv iwwerwaacht a bewäert ginn fir Widderstandsfäegkeet, Fairness, Erklärbarkeet an Integritéit. Fir Geschäftsleit bei der Iwwerwaachung an der Evaluatioun vun AI ze hëllefen, weist d'Etude uewe referenzéiert datt eng wuessend Zuel vu Geschäftsleit wëllen datt d'Regierung AI reguléiert fir Organisatiounen z'investéieren an déi richteg Technologie a Geschäftsprozesser. Fir déi néideg Ënnerstëtzung an Iwwerwaachung ass et schlau extern Bewäertungen ze berücksichtegen, déi vun engem Déngschtleeschter mat Erfarung an der Versuergung vun esou Servicer ugebuede ginn. Hei sinn dräi Grënn firwat.

1. Algorithmen Sinn "Black Boxes"

AI Algorithmen - déi aus Daten léieren fir Probleemer ze léisen an Aufgaben ze optimiséieren - maachen Systemer méi schlau, wat hinnen erlaabt Abléck vill méi séier ze sammelen an ze generéieren wéi d'Mënsche jeemools konnten.

Wéi och ëmmer, e puer Akteuren betruechten dës Algorithmen als "schwaarz Këschte", erkläert den Drew Rosen, en Audit Managing Director bei KPMG, enger féierender professionneller Servicerfirma. Spezifesch kënne verschidde Akteuren net verstoen wéi den Algorithmus zu enger bestëmmter Entscheedung komm ass an dofir net zouversiichtlech sinn an d'Gerechtegkeet oder Genauegkeet vun dëser Entscheedung.

"D'Resultater, déi aus dem Algorithmus gesammelt ginn, kënne ufälleg sinn fir Bias a falsch Interpretatioun vun de Resultater", seet de Rosen. "Dat kann och zu e puer Risiken fir d'Entitéit féieren wéi se dës Resultater profitéieren an [se] mat der Ëffentlechkeet an hiren Akteuren deelen."

En Algorithmus deen zum Beispill falsch Daten benotzt, ass am beschten net effikass - a schlëmmste schiedlech. Wéi kéint dat an der Praxis ausgesinn? Betruecht en AI-baséiert Chatbot deen déi falsch Kontinformatioun un d'Benotzer ubitt oder en automatiséiert Sproochen Iwwersetzungsinstrument dat ongenau Text iwwersetzt. Béid Fäll kënnen zu eeschte Feeler oder Mëssverständnisser fir Regierungsentitéiten oder Firmen féieren, souwéi d'Bestanddeeler a Clienten, déi op Entscheedunge vun dësen Algorithmen vertrauen.

En anere Bäitrag zum Black-Box-Problem ass wann inherent Bias an d'Entwécklung vun AI Modeller seet, wat potenziell biased Entscheedungsprozess verursaacht. Kredittgeber, zum Beispill, benotzen ëmmer méi AI fir d'Kredittwäertegkeet vu potenzielle Prêter virauszesoen fir Prêtentscheedungen ze treffen. Wéi och ëmmer, e Risiko kann entstoen wann Schlësselinput an den AI, sou wéi e potenzielle Prêt Kreditt Score, huet e materielle Feeler, wat dozou féiert, datt déi Persoune Prête refuséiert ginn.

Dëst beliicht de Besoin fir en externen Evaluator deen als onparteiesche Evaluator dénge kann an eng fokusséiert Bewäertung liwwert, baséiert op akzeptéierte Critèren, vun der Relevanz an Zouverlässegkeet vun den historeschen Donnéeën an Viraussetzungen, déi en Algorithmus erliewen.

2. Akteuren a Reglementer verlaangen Transparenz

Am Joer 2022 goufen et keng aktuell Berichtungsfuerderunge fir verantwortlech AI. Wéi och ëmmer, seet de Rosen, "just wéi d'Regierungsorganer d'ESG [Ëmwelt, Sozial a Gouvernance] Regulatioun agefouert hunn fir Bericht iwwer bestëmmte ESG Metriken, et ass nëmmen eng Fro vun der Zäit datt mir zousätzlech Regulatiounsberichterfuerderunge fir verantwortlech AI gesinn.

Tatsächlech, effektiv den 1. Januar 2023, New York City Lokal Gesetz 144 erfuerdert datt e Bias Audit op engem automatiséierte Beschäftegungsentscheedungsinstrument duerchgefouert gëtt ier et benotzt gëtt.

An um federalen Niveau, der National Artificial Intelligence Initiative Act vun 2020- deen op engem baut 2019 exekutiv Uerdnung- konzentréiert sech op AI technesch Normen a Leedung. Zousätzlech, de Algorithmic Rechenschaftspflicht Act kéint Impakt Bewäertunge vun automatiséiert Entscheedungssystemer a verstäerkte kriteschen Entscheedungsprozesser erfuerderen. An iwwerséiesch, der Kënschtlech Intelligenz Act gouf proposéiert, bitt en ëmfaassend reglementaresche Kader mat spezifeschen Ziler iwwer AI Sécherheet, Konformitéit, Gouvernance a Vertrauenswieregkeet.

Mat dësen Verréckelungen sinn Organisatiounen ënner engem Gouvernancemikroskop. En Algorithmusbewäerter kann esou Berichter ubidden, déi reglementaresch Ufuerderunge adresséieren an d'Transparenz vun de Stakeholder verbesseren, wärend de Risiko vermeit datt d'Akteuren falsch interpretéieren oder sinn Froe gefale duerch d'Resultater vun der Bewäertung.

3. Firmen profitéieren vun laangfristeg Risiko Management

De Steve Camara, e Partner an der KPMG Technologie Assurance Praxis, virausgesot AI Investitioune wäerte weider wuessen wéi Entitéite weidergoe mat Automatiséierungsprozesser, Innovatiounen entwéckelen déi d'Clienterfarung verbesseren an d'AI Entwécklung iwwer d'Geschäftsfunktiounen verdeelen. Fir kompetitiv a rentabel ze bleiwen, brauche Organisatiounen effektiv Kontrollen, déi net nëmmen déi direkt Mängel vun AI adresséieren, awer och all laangfristeg Risiken reduzéieren, déi mat AI-getankte Geschäftsoperatioune verbonne sinn.

Dëst ass wou extern Bewäerter als vertrauenswürdege, erfuerene Ressource erakommen. Wéi Organisatiounen ëmmer méi AI Integritéit als e Business Enabler ëmfaassen, kann d'Partnerschaft manner vun engem ad hoc Service a méi vun enger konsequent Zesummenaarbecht ginn, erkläert Camara.

"Mir gesinn e Wee no vir, wou et eng kontinuéierlech Relatioun muss ginn tëscht Organisatiounen, déi AI op eng kontinuéierlech Basis entwéckelen an operationaliséieren an engem objektiven externen Bewäerter," seet hien.

E Bléck op dat wat nächst kënnt

An Zukunft kënnen Organisatiounen extern Bewäertungen op méi vun enger zyklescher Basis benotzen wéi se nei Modeller entwéckelen, nei Datequellen ophuelen, Drëtt Partei Verkeefer Léisungen integréieren oder nei Konformitéitsufuerderunge navigéieren, zum Beispill.

Wann zousätzlech Reguléierungs- a Konformitéitsufuerderunge mandatéiert sinn, kënnen extern Bewäerter fäeg sinn Servicer ze bidden fir direkt ze evaluéieren wéi gutt eng Organisatioun AI a Bezuch op dës Ufuerderungen ofgesat oder benotzt huet. Dës Bewäerter wieren dann am beschten positionéiert fir Bewäertungsresultater op eng kloer a konsequent Manéier ze deelen.

Fir d'Technologie ze kapitaliséieren an och géint seng Aschränkungen ze schützen, muss eng Organisatioun extern Bewäertunge sichen fir Berichter ze liwweren op déi se dann vertraue kann fir méi Transparenz ze demonstréieren beim Ofbau vun Algorithmen. Vun do aus kënnen d'Organisatioun an d'Akteuren d'Kraaft vun AI besser verstoen - a seng Aschränkungen.

Quell: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/