Microsoft verbessert AI Chatbot Sécherheet fir Tricksters ze verhënneren

Microsoft Corp huet eng Rei vu Sécherheetsfeatures am Azure AI Studio bäigefüügt, déi mat der Zäit d'Wahrscheinlechkeet weiderhi reduzéieren sollen datt seng Benotzer AI Modeller an e Modus konfiguréieren, deen se anormal oder onpassend handelen.D'multinational Technologiefirma baséiert zu Redmond, Washington, huet d'Verbesserungen an engem Blogpost skizzéiert, betount d'Integritéit vun AI Interaktiounen ze garantéieren an d'Vertrauen an d'Benotzerbasis ze förderen.

Prompt Schëlder a méi 

Ënnert de groussen Entwécklungen ass d'Schafung vun "Prompt Schëlder", eng Technologie déi entwéckelt ass fir prompt Injektiounen ze fannen an ëmzebréngen wärend Dir mat AI Chatbots konverséiert. Dëst sinn déi sougenannte Jailbreaks a si grondsätzlech Inpute vu Benotzer déi virsiichteg sinn op esou eng Manéier ze bilden datt se eng ongewollt Äntwert vun den AI Modeller ausléisen.

Zum Beispill spillt Microsoft säin Deel indirekt mat prompt Injektiounen, wou d'Ausféierung vu béisen Uerder méiglech ass, an e Szenario wéi dat kann zu schwéiere Sécherheetskonsequenze wéi Datepest a Systemkaping féieren. D'Mechanismen si Schlëssel fir dës eenzegaarteg Bedrohungen an Echtzäit z'entdecken an ze reagéieren, laut Sarah Bird, Microsoft's Chief Product Officer for Responsible AI.

Microsoft füügt derbäi datt et geschwënn Alarmer um Bildschierm vum Benotzer gëtt, déi drop hiweisen wann e Modell méiglecherweis falsch oder irféierend Informatioun ausdréckt, fir méi Benotzerfrëndlechkeet a Vertrauen ze garantéieren.

Vertrauen an AI Tools bauen 

De Microsoft Effort ass Deel vun enger méi grousser Initiativ, geduecht fir de Leit Vertrauen an déi ëmmer méi populär generativ AI ze ginn, déi extensiv a Servicer applizéiert gëtt, déi individuell Konsumenten a Firme Clientèle zielen. Microsoft ass mat engem feinzännege Kamm duerchgaang, nodeems se d'Instanzen erstallt hunn, wou d'Benotzer d'Fäegkeet haten de Copilot Chatbot ze spillen fir bizarre oder schiedlech Ausgänge ze produzéieren. Dëst wäert d'Ënnerstëtzung vun engem Resultat sinn, dat de Besoin fir staark Verteidegung géint déi genannte manipulativ Taktik weist, déi méiglecherweis mat AI Technologien a populärem Wëssen eropgoen. Virauszesoen an dann ze reduzéieren ass d'Unerkennung vu Mustere vun Attacken, sou wéi en Ugräifer d'Fro widderhëlt oder d'Rollespiller freet.

Als OpenAI säi gréissten Investisseur a strategesche Partner, dréckt Microsoft d'Grenze vu wéi se verantwortlech, sécher generativ AI Technologien integréieren an kreéieren. Béid sinn engagéiert fir déi verantwortlech Deployment a Fundamental Modeller vun Generative AI fir Sécherheetsmoossnamen. Awer Bird huet zouginn datt dës grouss Sproochmodeller, och wa se als Grondlag fir vill vun der zukünfteger AI Innovatioun gesi ginn, net manipuléiertbeständeg sinn.

Bauen op dës Fundamenter wäert vill méi huelen wéi nëmmen op d'Modeller selwer ze vertrauen; et géif eng ëmfaassend Approche fir AI Sécherheet a Sécherheet brauchen.

Microsoft huet viru kuerzem d'Stäerkung vu Sécherheetsmoossnamen fir säin Azure AI Studio ugekënnegt fir proaktiv Schrëtt ze weisen an ze garantéieren, déi geholl ginn fir déi verännert AI Bedrohungslandschaft ze schützen.

Et beméit sech fir Mëssbrauch vun AI ze vermeiden an d'Integritéit an d'Zouverlässegkeet vun der AI Interaktioun ze bewahren andeems se fristgerecht Schiirme an Alarmer integréiert.

Mat der konstanter Evolutioun vun der AI Technologie a senger Adoptioun a ville Inklusiounen vum Alldag, wäert et héich Zäit sinn fir Microsoft an de Rescht vun der AI Gemeinschaft eng ganz waakreg Sécherheetshaltung ze halen.

Quell: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/