Gemini Code Assist und verantwortungsbewusste KI

In diesem Dokument wird beschrieben, wie Gemini Code Assist unter Berücksichtigung der Funktionen, Einschränkungen und Risiken entwickelt wurde, die mit generativer KI verbunden sind.

Funktionen und Risiken von Large Language Models

Large Language Models (LLMs) können viele nützliche Aufgaben ausführen, z. B.:

  • Sprache übersetzen
  • Text zusammenfassen
  • Code und kreatives Schreiben generieren.
  • Chatbots und virtuelle Assistenten unterstützen
  • Suchmaschinen und Empfehlungssysteme ergänzen

Gleichzeitig besteht durch die sich entwickelnden technischen Fähigkeiten von LLMs das Risiko, dass sie falsch eingesetzt oder missbraucht werden und unbeabsichtigte oder unvorhergesehene Folgen haben.

LLMs können unerwartete Ausgaben generieren, einschließlich Text, der beleidigend, grob oder tatsächlich falsch ist. Da LLMs unglaublich vielseitig sind, kann es schwierig sein, genau vorherzusagen, welche Art unbeabsichtigter oder unvorhergesehener Ausgaben sie erzeugen könnten.

Angesichts dieser Risiken und Komplexität wurde Gemini Code Assist unter Berücksichtigung der KI-Grundsätze von Google entwickelt. Es ist jedoch wichtig, dass Nutzer einige der Einschränkungen von Gemini Code Assist kennen, um sicher und verantwortungsvoll damit zu arbeiten.

Einschränkungen von Gemini Code Assist

Zu den Einschränkungen, die bei der Verwendung von Gemini Code Assist auftreten können, gehören unter anderem:

  • Grenzfälle Grenzfälle beziehen sich auf ungewöhnliche, seltene oder außergewöhnliche Situationen, die in den Trainingsdaten nicht gut dargestellt werden. Diese Fälle können zu Einschränkungen bei der Ausgabe von Gemini Code Assist-Modellen führen, z. B. Modellselbstüberschätzung, Fehlinterpretation des Kontexts oder unangemessene Ausgaben.

  • Modellhalluzinationen, Fundierung und Fakten Gemini Code Assist-Modellen mangelt es möglicherweise an Grundlagen und Fakten aus der realen Welt, physischen Eigenschaften oder korrektem Verständnis. Diese Einschränkung kann zu Modellhalluzinationen führen, bei denen Gemini Code Assist möglicherweise Ausgaben generiert, die zwar plausibel klingen, aber faktisch falsch, irrelevant, unangemessen oder sinnlos sind. Halluzinationen können auch das Erfinden von Links zu Webseiten umfassen, die nicht existieren und nie existiert haben. Weitere Informationen finden Sie unter Bessere Prompts für Gemini für Google Cloud schreiben.

  • Datenqualität und Optimierung Die Qualität, Genauigkeit und Verzerrung der Prompt-Daten, die in Gemini Code Assist-Produkte eingegeben werden, können erhebliche Auswirkungen auf die Leistung haben. Wenn Nutzer ungenaue oder falsche Prompts eingeben, gibt Gemini Code Assist möglicherweise suboptimale oder falsche Antworten zurück.

  • Voreingenommenheitsverstärkung Sprachmodelle können versehentlich vorhandene Vorurteile in den Trainingsdaten verstärken. Dies kann zu Ergebnissen führen, die gesellschaftliche Vorurteile und die ungleiche Behandlung bestimmter Gruppen weiter verstärken.

  • Sprachqualität: Gemini Code Assist bietet zwar beeindruckende mehrsprachige Funktionen in den von uns ausgewerteten Benchmarks, die meisten unserer Benchmarks (einschließlich aller Fairness-Auswertungen) sind jedoch in amerikanischem Englisch.

    Die von Sprachmodellen gelieferte Dienstqualität ist möglicherweise nicht für alle Nutzer einheitlich. Beispielsweise ist die Texterzeugung für einige Dialekte oder Sprachvarianten aufgrund ihres geringen Vorkommens in den Trainingsdaten möglicherweise nicht so effektiv. Die Leistung ist bei anderen Sprachen als der Englischen und bei weniger stark repräsentierten englischen Sprachvarianten möglicherweise geringer.

  • Fairness-Benchmarks und Untergruppen Die Fairness-Analysen des Google Research-Teams für Gemini-Modelle bieten keine vollständige Darstellung der verschiedenen potenziellen Risiken. Beispielsweise konzentrieren wir uns auf Vorurteile im Hinblick auf Geschlecht, ethnische Herkunft, Ethnie und Religion. Die Analyse erfolgt jedoch nur für englischsprachige Daten und die Modellausgaben.

  • Begrenzte Fachkenntnisse: Gemini-Modelle wurden mit Google Cloud-Technologie trainiert, haben aber möglicherweise nicht das nötige Wissen, um präzise und detaillierte Antworten im Fall von hoch spezialisierten oder technischen Themen zu liefern. Dies kann zu oberflächlichen oder falschen Informationen führen.

Gemini-Sicherheits- und Toxizitätsfilter

Prompts und Antworten von Gemini Code Assist werden anhand einer umfassenden Liste von Sicherheitsattributen geprüft, die für jeden Anwendungsfall gelten. Mit diesen Sicherheitsattributen sollen Inhalte herausgefiltert werden, die gegen unsere Richtlinien zur Fairen Nutzung verstoßen. Wenn eine Ausgabe als schädlich eingestuft wird, wird die Antwort blockiert.

Nächste Schritte