Sicherheit

Die Sicherheit von KI umfasst eine Reihe von Design- und Betriebstechniken, die befolgt werden müssen, um Handlungen zu vermeiden und einzudämmen, die vorsätzlich oder unbeabsichtigt schaden können. Verhalten sich KI-Systeme beispielsweise wie vorgesehen, auch bei einem Sicherheitsverstoß oder einem gezielten Angriff? Ist das KI-System robust genug, um auch bei Störungen sicher zu funktionieren? Wie planen Sie im Voraus, um Risiken zu vermeiden? Ist das KI-System zuverlässig und stabil?

Eine dieser Sicherheitstechniken ist Adversarial Testing, also der Versuch, Ihre eigene Anwendung zu „hacken“, um herauszufinden, wie sie sich bei schädlichen oder unbeabsichtigt schädlichen Eingaben verhält. Im Abschnitt „Sicherheit“ der Best Practices für verantwortungsbewusste KI von Google werden empfohlene Praktiken zum Schutz von KI-Systemen vor Angriffen beschrieben, einschließlich Adversarial-Tests. Weitere Informationen zu den Aktivitäten von Google in diesem Bereich und zu den gewonnenen Erkenntnissen finden Sie im Keyword-Blogpost Das „AI Red Team“ von Google: Die Ethik-Hacker, die KI sicherer machen oder unter SAIF: Google's Guide to Secure AI.