Microsoft meldet Jailbreak für GPT, Llama und Gemini

Von | 16. Juli 2024

In den verschiedenen KI-Chatbots haben die Entwickler Sicherheitsfunktionen integriert, um verbotene, unmoralische oder gefährliche Antworten zu umgehen. Microsoft zeigt jetzt, wie sich diese Maßnahmen umgehen lassen.

Teilen ...