Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the fast-indexing-api domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/u166456357/domains/ictreview.com/public_html/wp-includes/functions.php on line 6114
Experte warnt: ChatGPT-API offen für DDoS-Angriffe - Schutzmaßnahmen dringend erforderlich - ictreview.com Experte warnt: ChatGPT-API offen für DDoS-Angriffe - Schutzmaßnahmen dringend erforderlich - ictreview.com

Experte warnt: ChatGPT-API offen für DDoS-Angriffe – Schutzmaßnahmen dringend erforderlich

Posted by:
Laura Hoffmann
Do., 23 Jan.
0 Comment
Feature image

Ein Experte warnt davor, dass die ChatGPT-API eine unbegrenzte Anzahl von URLs akzeptieren kann, auch wenn sie Duplikate sind. Wenn versucht wird, die Befehle auszuführen, entsteht ein enormes Volumen an HTTP-Anfragen. Forscher drängen OpenAI, Schutzmaßnahmen zu ergreifen.

Experten haben gewarnt, dass es möglich ist, den ChatGPT-Dienst von OpenAI dazu zu bringen, im Auftrag von Bedrohungsakteuren Distributed-Denial-of-Service (DDoS)-Angriffe durchzuführen. Ein Bericht des Cybersicherheitsforschers Benjamin Flesch wies darauf hin, dass das Problem in der Handhabung von HTTP-POST-Anfragen an einen bestimmten Endpunkt der ChatGPT-API liegt. Dieser Endpunkt ermöglicht es dem Benutzer, eine Reihe von Links über den Parameter „urls“ bereitzustellen – ohne Einschränkungen. Somit könnte theoretisch ein Bedrohungsakteur Tausende von Hyperlinks in einer einzelnen Anfrage einfügen, die alle auf denselben Server oder dieselbe Adresse verweisen. Als Folge würden die Server von OpenAI eine große Anzahl von HTTP-Anfragen an die Website des Opfers senden, was zu einem Denial-of-Service führt.

Missbrauch von KI
Die Lösung, laut Flesch, ist relativ einfach – OpenAI müsste strenge Beschränkungen für die Anzahl der URLs, die eine Person einreichen kann, implementieren. Das Unternehmen sollte auch sicherstellen, dass Duplikatanfragen begrenzt sind. Schließlich könnten potenzielle Missbräuche durch Hinzufügen von Rate-Limiting-Maßnahmen verhindert werden. Dies ist nicht das erste Mal, dass Menschen Möglichkeiten gefunden haben, Generative KI (GenAI)-Tools zu missbrauchen, und höchstwahrscheinlich nicht das letzte Mal.

Betrüger könnten ChatGPT und Bard missbrauchen, um hoch überzeugende Betrügereien zu verbreiten. Hier ist eine Liste der besten Antiviren-Tools im Angebot. Dies sind momentan die besten Endpoint-Schutztools.

Tags:

0 0 votes
Article Rating
Abonnieren
Benachrichtige mich bei
guest

0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments