Hei ass wéi OpenAI plangt ChatGPT vu falschen Informatioun ze botzen

OpenAI huet den 31. Mee ugekënnegt, seng Efforten fir ChatGPT seng mathematesch Problemléisungsfäegkeeten ze verbesseren, mam Zil d'Instanzen vu kënschtlecher Intelligenz (AI) Halluzinatiounen ze reduzéieren. OpenAI ënnersträicht d'Vermeidung vun Halluzinatiounen als e wesentleche Schrëtt fir eng ausgeriicht AGI z'entwéckelen.

Am Mäerz huet d'Aféierung vun der leschter Versioun vum ChatGPT, GPT-4, kënschtlech Intelligenz weider an de Mainstream bruecht. Wéi och ëmmer, generativ AI Chatbots hu laang mat der Tatsaach Genauegkeet gekämpft, heiansdo falsch Informatioun generéiert, allgemeng als "Halluzinatiounen" bezeechent. D'Efforte fir dës AI Halluzinatiounen ze reduzéieren goufen duerch e Post op hirer Websäit ugekënnegt.

AI Halluzinatioune bezéien sech op Fäll wou kënschtlech Intelligenz Systemer Ausgänge generéieren déi sachlech falsch, irféierend oder net vun real-Weltdaten ënnerstëtzt sinn. Dës Halluzinatioune kënne sech a verschiddene Formen manifestéieren, sou wéi falsch Informatioun generéieren, net existent Eventer oder Leit ausmaachen oder ongenau Detailer iwwer bestëmmten Themen ubidden.

OpenAI huet Fuerschung gemaach fir d'Effektivitéit vun zwou Aarte vu Feedback z'ënnersichen - "Resultat Iwwerwaachung" a "Prozess Iwwerwaachung." Resultat Iwwerwaachung implizéiert Feedback baséiert op dem Finale Resultat, während Prozess Iwwerwaachung Input fir all Schrëtt an enger Kette vu Gedanken gëtt. OpenAI evaluéiert dës Modeller mat Mathematikprobleemer, generéiert verschidde Léisungen a wielt déi héchst klasséiert Léisung no all Feedbackmodell.

No grëndlecher Analyse huet d'Fuerschungsteam festgestallt datt d'Prozess-Iwwerwaachung eng super Leeschtung huet wéi et de Modell encouragéiert huet un e mënschlech approuvéierte Prozess ze halen. Am Géigesaz, huet d'Resultater Iwwerwaachung méi Erausfuerderung bewisen fir konsequent z'iwwerpréiwen.

OpenAI erkannt datt d'Implikatioune vun der Prozessiwwerwaachung iwwer d'Mathematik ausdehnen, a weider Enquête ass néideg fir seng Effekter a verschiddene Beräicher ze verstoen. Et huet d'Méiglechkeet ausgedréckt datt wann déi observéiert Resultater a méi breede Kontexter stëmmen, Prozessiwwerwaachung eng favorabel Kombinatioun vu Leeschtung an Ausriichtung am Verglach zum Resultatiwwerwaachung kéint bidden. Fir d'Fuerschung ze erliichteren, huet d'Firma ëffentlech de komplette Dataset vu Prozessiwwerwaachung verëffentlecht, invitéiert Exploratioun a Studie an dësem Beräich.

Verbonnen: AI Nofro katapultéiert Nvidia kuerz an $1T Club

Och wann OpenAI keng explizit Instanzen ubitt, déi hir Enquête iwwer Halluzinatioune gefuerdert hunn, zwee rezent Optriede illustréiert de Problem an real-Liewen Szenarie.

An engem rezenten Tëschefall huet den Affekot Steven A. Schwartz am Fall Mata v. Avianca Airlines unerkannt datt hien op den Chatbot als Fuerschungsressource vertrauen. Wéi och ëmmer, d'Informatioun, déi vum ChatGPT geliwwert gouf, huet sech als komplett fabrizéiert, wat d'Thema op der Hand beliicht.

OpenAI's ChatGPT ass net dat eenzegt Beispill vu kënschtlechen Intelligenz Systemer déi Halluzinatioune begéinen. Microsoft's AI, wärend enger Demonstratioun vu senger Chatbot Technologie am Mäerz, huet Akommesberichter iwwerpréift an ongenau Zuele fir Firmen wéi Gap a Lululemon generéiert.

Magazine: 25K Händler wetten op ChatGPT's Aktie Picks, AI suckelt bei Wierfelwerfen, a méi

Quell: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information