fast-indexing-api
domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init
action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/u166456357/domains/ictreview.com/public_html/wp-includes/functions.php on line 6114Meta stellt sein Frontier AI Framework allen zur VerfügungDas Unternehmen äußert Bedenken hinsichtlich KI-bedingter CybersicherheitsbedrohungenRisikobewertungen und Modellierung ordnen KI-Modelle als kritisch, hoch oder moderat ein
Meta hat trotz CEO Mark Zuckerbergs öffentlich angekündigter Absicht, die künstliche allgemeine Intelligenz (AGI) für alle zugänglich zu machen, Bedenken hinsichtlich der Zukunft von KI geäußert.Das neu veröffentlichte Frontier AI Framework des Unternehmens untersucht einige „kritische“ Risiken, die KI darstellen könnte, einschließlich potenzieller Auswirkungen auf Cybersicherheit sowie chemische und biologische Waffen.Indem es seine Richtlinien öffentlich zugänglich macht, hofft Meta, mit anderen Branchenführern zusammenzuarbeiten, um diese Risiken durch die Identifizierung potenziell „katastrophaler“ Ergebnisse und Bedrohungsmodellierung zu „antizipieren und zu mildern“.
Meta will „katastrophale“ KI-Ergebnisse verhindernMit der Aussage, dass „das Freigeben von KI keine Option ist, sondern unerlässlich“, erläuterte Meta in einem Blogbeitrag, wie das Teilen von Forschungsergebnissen Organisationen hilft, voneinander zu lernen und Innovationen zu fördern.Ihr Rahmenwerk funktioniert durch regelmäßige proaktive Bedrohungsmodellierungsübungen, um ihre KI-Risikobewertungen zu ergänzen – die Modellierung wird auch verwendet, wenn und wann ein KI-Modell identifiziert wird, das möglicherweise „aktuelle Grenzfähigkeiten“ überschreitet und somit zu einer Bedrohung wird.Diese Prozesse werden von internen und externen Experten unterstützt und führen zu einer von drei negativen Kategorien: „kritisch“, wo die Entwicklung des Modells gestoppt werden muss; „hoch“, wo das Modell in seinem aktuellen Zustand nicht veröffentlicht werden darf; und „moderat“, wo weitere Überlegungen zur Veröffentlichungsstrategie angestellt werden.Einige Bedrohungen umfassen die Entdeckung und Ausnutzung von Zero-Day-Schwachstellen, automatisierte Betrugsfälle sowie die Entwicklung von hochwirksamen biologischen Wirkstoffen. In dem Rahmenwerk schreibt Meta: „Während der Fokus dieses Rahmens auf unseren Bemühungen liegt, Risiken katastrophaler Ergebnisse zu antizipieren und zu mildern, ist es wichtig zu betonen, dass der Grund, warum fortgeschrittene KI-Systeme entwickelt werden, darin liegt, dass diese Technologien ein enormes Potenzial für gesellschaftliche Nutzen bieten.“Das Unternehmen hat zugesagt, sein Framework mit Unterstützung von Akademikern, Entscheidungsträgern, zivilen Organisationen, Regierungen und der breiteren KI-Community fortlaufend zu aktualisieren, während die Technologie sich weiterentwickelt.