Prompt injection is a method of attacking text-based “AI” systems with a prompt. Remember back when you could fool LLM-powered spam bots by replying something like, “Ignore all previous instructions ...
Certains résultats ont été masqués, car ils peuvent vous être inaccessibles.
Afficher les résultats inaccessibles