Australesch Regierung lancéiert Berodung fir de Verbuet op "Héich-Risiko" AI ze bewäerten - Cryptopolitan

D'australesch Regierung huet eng onerwaart aacht Woche Consultatiounsperiod initiéiert fir ze bestëmmen ob verschidde "High-Risiko" Kënschtlech Intelligenz (AI) Tools verbuede solle sinn. Dës Beweegung follegt ähnlech Moossname vun anere Regiounen, dorënner d'USA, d'Europäesch Unioun a China, fir d'Risiken unzegoen, déi mat der rapider AI Entwécklung verbonne sinn.

Den 1. Juni huet den Industrie- a Wëssenschaftsminister Ed Husic zwee Pabeiere fir ëffentlech Iwwerpréiwung enthüllt: een iwwer "Sécher a verantwortlech AI an Australien" an eng aner iwwer generativ AI vum National Science and Technology Council. Dës Pabeiere goufen niewent enger Berodungsperiod verëffentlecht déi bis de 26. Juli op bleift.

D'australesch Regierung sicht Feedback iwwer Strategien fir déi "sécher a verantwortlech Notzung vun AI" ze förderen, fir Optiounen z'erklären wéi fräiwëlleg ethesch Kaderen, spezifesch Reglementer oder eng Kombinatioun vu béiden Approchen. Notamment freet d'Konsultatioun direkt ob gewësse héich-Risiko AI Uwendungen oder Technologien komplett verbannt solle ginn a sicht Input iwwer d'Critèrë fir sou Tools z'identifizéieren.

Déi ëmfaassend Diskussiounspabeier enthält eng Entworf Risiko Matrix fir AI Modeller, déi selbstfahrend Autoen als "héich Risiko" kategoriséieren an generativ AI Tools fir medizinesch Patientedossieren als "mëttel Risiko" ze kreéieren. D'Dokument betount souwuel déi positiv Uwendungen vun AI a Secteuren wéi Medizin, Ingenieurs- a Gesetz, wéi och déi potenziell Schued verbonne mat Deepfake Tools, Fake News Generatioun, an Fäll wou AI Bots Selbstschued encouragéiert hunn.

Australesch Regierung vs AI

Bedenken iwwer Bias an AI Modeller, wéi och d'Generatioun vun onsënnegen oder falschen Informatioune bekannt als "Halluzinatiounen" vun AI Systemer, ginn och am Diskussiounspabeier behandelt. Et erkennt datt d'AI Adoptioun an Australien de Moment limitéiert ass wéinst nidderegen Niveaue vum ëffentleche Vertrauen. De Pabeier referenzéiert AI Reglementer, déi an anere Juridictioune implementéiert goufen an den temporäre Verbuet vun Italien op ChatGPT als Beispiller.

Zousätzlech beliicht den National Science and Technology Council Bericht déi avantagéis Fäegkeeten vun Australien an der Robotik a Computervisioun awer bemierkt relativ Schwächten a Kärberäicher wéi grouss Sproochmodeller. Et mécht Bedenken iwwer d'Konzentratioun vu generativen AI Ressourcen an enger klenger Zuel vu haaptsächlech US-baséiert Tech Firmen, wat potenziell Risiken fir Australien stellt.

De Bericht exploréiert weider d'global AI Regulatioun, bitt Beispiller vu generativen AI Modeller, a proposéiert datt esou Modeller méiglecherweis wäitreechend Auswierkungen op Secteuren hunn, rangéiert vu Banken a Finanzen bis ëffentlech Servicer, Educatioun a kreativ Industrien.

Disclaimer. Déi geliwwert Informatioun ass net Handelsberodung. Cryptopolitan.com hält keng Haftung fir all Investitioune baséiert op der Informatioun op dëser Säit. Mir recommandéieren staark onofhängeg Fuerschung an / oder Consultatioun mat engem qualifizéierten Fachmann ier Dir Investitiounsentscheedungen maacht.

Quell: https://www.cryptopolitan.com/australian-government-on-ai-consultation/