Mit Sammlungen den Überblick behalten Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren. Data Science mit GPUs beschleunigen Zurück zum Lernpfad Welchen wesentlichen Vorteil bietet die Verwendung von cudf.pandas in Ihrem Data-Science-Workflow? Es bietet neue Pandas-Funktionen, die in Standard-Pandas nicht verfügbar sind. Pandas-Vorgänge werden automatisch auf der GPU beschleunigt, ohne dass Änderungen am Code erforderlich sind. Dadurch wird die Arbeitsspeicherbelegung von Pandas-DataFrames reduziert. Es ermöglicht verteiltes Computing auf mehreren Computern. Welche Laufzeitumgebung in Google Cloud wird für Teams empfohlen, die eine schnelle Einrichtung, Benutzerfreundlichkeit und sichere Zusammenarbeit für Data-Science-Workflows mit Notebooks wünschen? Compute Engine Vertex AI Workbench Colab Enterprise Cloud Functions Was können Sie im Zusammenhang mit GPU-beschleunigtem maschinellem Lernen mit den Profilern cuml.accel identifizieren? Speicherlecks in Ihrem Python-Code Probleme mit der Netzwerklatenz CPU-Fallbacks und Leistungsengpässe Syntaxfehler im Notebook Welche der folgenden Aussagen ist eine Best Practice für die Verwendung von GPU-Beschleunigung für maschinelles Lernen? Immer GPU für Datasets jeder Größe verwenden CSV-Format für schnelles Laden von Daten verwenden Parquet-Format verwenden und vektorisierte Vorgänge bevorzugen Daten zeilenweise verarbeiten, um maximale Kontrolle zu haben Welchen Parameter sollten Sie in XGBoost festlegen, um die GPU-Beschleunigung zu aktivieren? gpu=True accelerator='gpu' device='cuda' use_gpu=1 Was ist der Hauptvorteil der Verwendung von cuML-Schätzern (z.B. cuml.ensemble.RandomForestClassifier) gegenüber ihren scikit-learn-Entsprechungen? Sie unterstützen mehr Hyperparameteroptionen als scikit-learn. Sie trainieren Modelle auf der GPU, wodurch die Anpassungs- und Vorhersagezeiten bei großen Datasets erheblich verkürzt werden. Sie führen vor dem Training automatisch Feature Engineering durch. Sie machen die Hyperparameter-Abstimmung überflüssig. Was ist ein wichtiger Vorteil der direkten Übergabe von cuDF-Daten an xgb.train() oder XGBClassifier.fit(), wenn GPU-beschleunigtes XGBoost mit cuDF-DataFrames verwendet wird? Die Lernrate wird automatisch angepasst. Dadurch werden kostspielige Datenübertragungen zwischen GPU- und CPU-Arbeitsspeicher vermieden. Standardmäßig wird das Training auf mehreren GPUs ermöglicht. Kategoriale Merkmale werden automatisch in numerische Merkmale umgewandelt. Was ermöglicht das Modul cuml.accel bei der Arbeit mit scikit-learn-Code? scikit-learn-Modelle automatisch in das ONNX-Format konvertieren Vorhandenen scikit-learn-Code mit minimalen oder gar keinen Codeänderungen auf der GPU ausführen scikit-learn-Training auf mehrere CPU-Knoten verteilen Automatisch den besten Algorithmus für Ihr Dataset auswählen Sowohl cuml.accel.profile als auch cuml.accel.line_profile sind Möglichkeiten, Ihren GPU-beschleunigten scikit-learn-Code zu profilieren. Welche der folgenden Methoden sind gültig, um sie aufzurufen? Fügen Sie %%cuml.accel.profile oben in eine Notebookzelle ein. Fügen Sie oben in einer Notebookzelle %%cuml.accel.line_profile ein. python -m cuml.accel --profile your_code.py python -m cuml.accel --line-profile your_code.py Alle oben aufgeführten Antworten Antworten senden error_outline Beim Bewerten des Quiz ist ein Fehler aufgetreten. Bitte versuchen Sie es noch einmal.