Die Sicherheit von KI umfasst eine Reihe von Design- und Betriebstechniken, mit denen Aktionen vermieden und eingedämmt werden können, die vorsätzlich oder unbeabsichtigt schädlich sind. Verhalten sich KI-Systeme beispielsweise wie vorgesehen, auch bei einem Sicherheitsverstoß oder einem gezielten Angriff? Ist das KI-System robust genug, um auch bei Störungen sicher zu funktionieren? Wie planen Sie im Voraus, um Risiken zu vermeiden? Ist das KI-System zuverlässig und stabil?
Eine dieser Sicherheitstechniken ist Adversarial Testing, also der Versuch, Ihre eigene Anwendung zu „hacken“, um herauszufinden, wie sie sich bei schädlichen oder unbeabsichtigt schädlichen Eingaben verhält. Im Responsible Generative AI Toolkit finden Sie weitere Informationen zu Sicherheitsbewertungen, einschließlich Adversarial-Tests. Weitere Informationen zu den Aktivitäten von Google in diesem Bereich und zu den gewonnenen Erkenntnissen finden Sie im Keyword-Blogpost Google's AI Red Team: the ethical hackers making AI safer (Das „AI Red Team“ von Google: die Ethik-Hacker, die KI sicherer machen) oder unter SAIF: Google's Guide to Secure AI (SAIF: Google's Guide to Secure AI).