Ten dokument opisuje, jak Gemini Code Assist jest zaprojektowany z uwzględnieniem możliwości, ograniczeń i ryzyka związanych z generatywną AI.
Możliwości i zagrożenia związane z dużymi modelami językowymi
Duże modele językowe (LLM) mogą wykonywać wiele przydatnych zadań, takich jak:
- Tłumaczenie tekstu.
- streszczać tekst;
- generować kod i pisać kreacje.
- obsługa chatbotów i wirtualnych asystentów;
- uzupełniają wyszukiwarki i systemy rekomendacji;
Jednocześnie rozwijające się możliwości techniczne modeli LLM mogą prowadzić do ich niewłaściwego użycia, nadużyć oraz niezamierzonych lub nieprzewidzianych konsekwencji.
Modele LLM mogą generować nieoczekiwane wyniki, w tym tekst obraźliwy, niestosowny lub nieprawdziwy. Modele LLM są bardzo wszechstronne, więc trudno przewidzieć, jakie dokładnie nieoczekiwane lub niezamierzone wyniki mogą wygenerować.
Ze względu na te zagrożenia i złożoność Gemini Code Assist został zaprojektowany zgodnie z zasadami Google dotyczącymi AI. Użytkownicy powinni jednak znać ograniczenia Gemini Code Assist, aby korzystać z niego bezpiecznie i odpowiedzialnie.
Ograniczenia Gemini Code Assist
Poniżej znajdziesz niektóre ograniczenia, które mogą wystąpić podczas korzystania z Gemini Code Assist:
Przypadki ekstremalne. Krawędzie przypadków odnoszą się do nietypowych, rzadkich lub wyjątkowych sytuacji, które nie są dobrze reprezentowane w danych do trenowania. Może to prowadzić do ograniczeń w wynikach modeli Gemini Code Assist, takich jak nadmierna pewność siebie modelu, błędne interpretowanie kontekstu lub nieodpowiednie wyniki.
Modelowanie halucynacji, uziemienia i rzeczywistości. Modele Gemini Code Assist mogą nie uwzględniać wiedzy na temat świata rzeczywistego, właściwości fizycznych lub dokładnego zrozumienia. To ograniczenie może prowadzić do halucynacji modelu, w których przypadku Gemini Code Assist może generować wyniki, które brzmią wiarygodnie, ale są nieprawidłowe, nieistotne, nieodpowiednie lub bezsensowne. Halucynacje mogą też obejmować wymyślone linki do stron internetowych, które nie istnieją i nigdy nie istniały. Więcej informacji znajdziesz w artykule Tworzenie lepszych promptów w Gemini dla Google Cloud.
Jakość i dostrajanie danych. Jakość, dokładność i uprzedywidzenia danych promptu wprowadzanych do produktów Gemini Code Assist mogą mieć znaczący wpływ na ich działanie. Jeśli użytkownicy wpisują nieprawidłowe prompty, Gemini Code Assist może zwracać odpowiedzi nieoptymalne lub fałszywe.
Wzmocnienie stronniczości. Modele językowe mogą nieumyślnie wzmacniać istniejące uprzedzenia w danych treningowych, co prowadzi do generowania wyników, które mogą dodatkowo wzmacniać uprzedzenia społeczne i nierówne traktowanie niektórych grup.
Jakość języka. Gemini Code Assist oferuje imponujące możliwości wielojęzyczności w przypadku testów porównawczych, które oceniliśmy, ale większość z nich (w tym wszystkie oceny sprawiedliwości) jest w angielskim amerykańskim.
Modele językowe mogą zapewniać niejednolitą jakość usług dla różnych użytkowników. Na przykład generowanie tekstu może być mniej skuteczne w przypadku niektórych dialektów lub odmian językowych, ponieważ są one słabo reprezentowane w danych treningowych. Skuteczność może być niższa w przypadku języków innych niż angielski lub odmian języka angielskiego, które są rzadziej używane.
Wzorce i podgrupy sprawiedliwości Analizy sprawiedliwości modeli Gemini przeprowadzone przez Google Research nie wyczerpują wszystkich potencjalnych zagrożeń. Na przykład skupiamy się na uprzedzeniach związanych z płcią, rasą, pochodzeniem etnicznym i wyznaniem, ale analizę przeprowadzamy tylko na danych w języku angielskim (amerykańskim) i danych wyjściowych modelu.
Ograniczona znajomość danej dziedziny. Modele Gemini zostały wytrenowane na podstawie technologii Google Cloud, ale mogą nie mieć wystarczającej wiedzy, aby udzielać dokładnych i szczegółowych odpowiedzi na bardzo specjalistyczne lub techniczne tematy, co może prowadzić do podania powierzchownych lub nieprawidłowych informacji.
Filtrowanie Gemini pod kątem bezpieczeństwa i toksyczności
Prompty i odpowiedzi Gemini Code Assist są sprawdzane na podstawie obszernej listy atrybutów bezpieczeństwa, która jest odpowiednia dla danego przypadku użycia. Te atrybuty bezpieczeństwa służą do odfiltrowywania treści, które naruszają nasze Zasady dopuszczalnego użytkowania. Jeśli dane wyjściowe zostaną uznane za szkodliwe, odpowiedź zostanie zablokowana.
Co dalej?
- Dowiedz się więcej o tym, jak Gemini Code Assist podaje źródła podczas generowania kodu.