Connector bereitstellen

In diesem Teil des Cloud Search-Tutorials erfahren Sie, wie Sie eine Datenquelle und einen Inhaltsconnector einrichten, um Daten zu indexieren. Das erste Modul des Tutorials finden Sie unter Einführung in Google Cloud Search.

Connector erstellen

Ändern Sie Ihr Arbeitsverzeichnis zu cloud-search-samples/end-to-end/connector und führen Sie den folgenden Befehl aus:

mvn package -DskipTests

Mit diesem Befehl werden die Abhängigkeiten heruntergeladen, die benötigt werden, um den Inhaltsconnector zu erstellen, und der Code wird kompiliert.

Anmeldedaten für ein Dienstkonto erstellen

Damit Cloud Search APIs vom Connector aufgerufen werden können, sind Anmeldedaten für das Dienstkonto erforderlich. So erstellen Sie die Anmeldedaten:

  1. Kehren Sie zur Google Cloud Console zurück.
  2. Klicken Sie im linken Navigationsmenü auf Anmeldedaten. Die Seite „Anmeldedaten“ wird angezeigt.
  3. Klicken Sie auf die Drop-down-Liste + ANMELDEDATEN ERSTELLEN und wählen Sie Dienstkonto aus. Die Seite „Dienstkonto erstellen“ wird angezeigt.
  4. Geben Sie im Feld Name des Dienstkontos „tutorial“ ein.
  5. Notieren Sie sich die Dienstkonto-ID (folgt dem Namen des Dienstkontos). Dieser Wert wird später verwendet.
  6. Klicke auf ERSTELLEN. Das Dialogfeld „Dienstkontoberechtigungen (optional)“ wird angezeigt.
  7. Klicke auf WEITER. Das Dialogfeld „Nutzern Zugriff auf dieses Dienstkonto erteilen (optional)“ wird angezeigt.
  8. Klicken Sie auf FERTIG. Der Bildschirm „Anmeldedaten“ wird angezeigt.
  9. Klicken Sie unter „Dienstkonten“ auf die E‐Mail-Adresse des Dienstkontos. Die Seite „Dienstkontodetails“ wird angezeigt.
  10. Klicken Sie unter „Schlüssel“ auf die Drop-down-Liste SCHLÜSSEL HINZUFÜGEN und wählen Sie Neuen Schlüssel erstellen aus. Das Dialogfeld „Privaten Schlüssel erstellen“ wird angezeigt.
  11. Klicke auf ERSTELLEN.
  12. Optional: Wenn das Dialogfeld „Möchten Sie Downloads auf console.cloud.google.com zulassen?“ angezeigt wird, klicken Sie auf Zulassen.
  13. Eine Datei mit dem privaten Schlüssel wird auf Ihrem Computer gespeichert. Notieren Sie sich den Speicherort der heruntergeladenen Datei. Sie wird benötigt, um den Inhaltsconnector für die Selbstauthentifizierung beim Aufrufen der Google Cloud Search APIs zu konfigurieren.

Unterstützung von Drittanbietern initialisieren

Bevor Sie andere Cloud Search APIs aufrufen können, müssen Sie die Unterstützung von Drittanbietern für Google Cloud Search initialisieren.

So initialisieren Sie die Unterstützung von Drittanbietern für Cloud Search:

  1. Ihr Projekt für die Cloud Search Platform enthält Anmeldedaten für ein Dienstkonto. Für die Initialisierung der Unterstützung von Drittanbietern müssen Sie allerdings Anmeldedaten für die Webanwendung erstellen. Eine Anleitung zum Erstellen von Anmeldedaten für Webanwendungen finden Sie unter Anmeldedaten erstellen. Nach Abschluss dieses Schritts sollten Sie eine Client-ID und eine Clientschlüsseldatei haben.

  2. Verwenden Sie den OAuth-2.0-Playground von Google, um ein Zugriffstoken abzurufen:

    1. Klicken Sie auf „Settings“ (Einstellungen) und setzen Sie ein Häkchen bei User your own auth credentials (Eigene Anmeldedaten verwenden).
    2. Geben Sie die Client-ID und den Clientschlüssel aus Schritt 1 ein.
    3. Klicken Sie auf Schließen.
    4. Geben Sie im Feld „Scopes“ (Bereiche) https://www.googleapis.com/auth/cloud_search.settings ein und klicken Sie auf Authorize (Autorisieren). Im OAuth-2-Playground wird ein Autorisierungscode zurückgegeben.
    5. Klicken Sie auf Autorisierungscode für Tokens austauschen. Ein Token wird zurückgegeben.
  3. Initialisieren Sie die Unterstützung von Drittanbietern für Cloud Search mit dem folgenden curl-Befehl. Ersetzen Sie [YOUR_ACCESS_TOKEN] durch das Token aus Schritt 2.

    curl --request POST \
    'https://cloudsearch.googleapis.com/v1:initializeCustomer' \
      --header 'Authorization: Bearer [YOUR_ACCESS_TOKEN]' \
      --header 'Accept: application/json' \
      --header 'Content-Type: application/json' \
      --data '{}' \
      --compressed
    

    Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von operation. Beispiel:

    {
    name: "operations/customers/01b3fqdm/lro/AOIL6eBv7fEfiZ_hUSpm8KQDt1Mnd6dj5Ru3MXf-jri4xK6Pyb2-Lwfn8vQKg74pgxlxjrY"
    }
    

    Ist das nicht der Fall, wenden Sie sich an den Cloud Search-Support.

  4. Mit operations.get können Sie prüfen, ob die Unterstützung von Drittanbietern initialisiert wurde:

    curl \
    'https://cloudsearch.googleapis.com/v1/operations/customers/01b3fqdm/lro/AOIL6eBv7fEfiZ_hUSpm8KQDt1Mnd6dj5Ru3MXf-jri4xK6Pyb2-Lwfn8vQKg74pgxlxjrY?key=
    [YOUR_API_KEY]' \
    --header 'Authorization: Bearer [YOUR_ACCESS_TOKEN]' \
    --header 'Accept: application/json' \
    --compressed
    

    Wenn die Initialisierung für Drittanbieter abgeschlossen ist, enthält das Feld done den Wert true. Beispiel:

    {
    name: "operations/customers/01b3fqdm/lro/AOIL6eBv7fEfiZ_hUSpm8KQDt1Mnd6dj5Ru3MXf-jri4xK6Pyb2-Lwfn8vQKg74pgxlxjrY"
    done: true
    }
    

Datenquelle erstellen

Als Nächstes erstellen Sie in der Admin-Konsole eine Datenquelle. Sie stellt einen Namespace für die Datenindexierung durch den Connector bereit.

  1. Öffnen Sie die Admin-Konsole.
  2. Klicken Sie auf das Symbol „Apps“. Die Seite „Apps-Verwaltung“ wird angezeigt.
  3. Klicken Sie auf Google Workspace. Die Seite „Verwaltung von Google Workspace-Apps“ wird angezeigt.
  4. Scrollen Sie nach unten und klicken Sie auf Cloud Search. Die Seite „Einstellungen für Google Workspace“ wird angezeigt.
  5. Klicken Sie auf Datenquellen von Drittanbietern. Die Seite „Datenquellen“ wird angezeigt.
  6. Klicken Sie auf das runde gelbe +. Das Dialogfeld „Neue Datenquelle hinzufügen“ wird angezeigt.
  7. Geben Sie im Feld Anzeigename „tutorial“ ein.
  8. Geben Sie im Feld E-Mail-Adressen des Dienstkontos die E-Mail-Adresse des Dienstkontos ein, das Sie im vorherigen Abschnitt erstellt haben. Sie finden die Adresse bei Bedarf auf der Seite Dienstkonten.
  9. Klicken Sie auf HINZUFÜGEN. Das Dialogfeld „Die Datenquelle wurde erstellt“ wird angezeigt.
  10. Klicken Sie auf *OK. Notieren Sie sich die Quellen-ID der neu erstellten Datenquelle. Sie wird benötigt, um den Inhaltsconnector zu konfigurieren.

Persönliches Zugriffstoken für die GitHub API erstellen

Für ein ausreichendes Kontingent des Connectors wird authentifizierter Zugriff auf die GitHub API benötigt. Der Einfachheit halber werden für den Connector persönliche Zugriffstokens anstelle von OAuth verwendet. Persönliche Tokens ermöglichen die Authentifizierung als Nutzer mit einem begrenzten Satz von Berechtigungen, ähnlich wie bei OAuth.

  1. Melden Sie sich in GitHub an.
  2. Klicken Sie rechts oben auf Ihr Profilbild. Ein Drop-down-Menü wird angezeigt.
  3. Klicken Sie auf Einstellungen.
  4. Klicken Sie auf Entwicklereinstellungen.
  5. Klicken Sie auf Persönliche Zugriffstokens.
  6. Klicken Sie auf Generate personal access token (Persönliches Zugriffstoken generieren).
  7. Geben Sie in das Feld Note (Anmerkung) „Cloud Search-Tutorial“ ein.
  8. Setzen Sie ein Häkchen beim Bereich public_repo.
  9. Klicken Sie auf Token generieren.
  10. Notieren Sie sich das generierte Token. Er wird vom Connector verwendet, um die GitHub APIs aufzurufen, und stellt ein API-Kontingent für die Indexierung bereit.

Connector konfigurieren

Nachdem Sie die Anmeldedaten und die Datenquelle erstellt haben, aktualisieren Sie die Konfiguration des Connectors mit den folgenden Werten:

  1. Ändern Sie das Verzeichnis über die Befehlszeile zu cloud-search-samples/end-to-end/connector/.
  2. Öffnen Sie die Datei sample-config.properties in einem Texteditor.
  3. Legen Sie für den Parameter api.serviceAccountPrivateKeyFile den Pfad zur Datei mit den zuvor heruntergeladenen Dienstanmeldedaten fest.
  4. Legen Sie für den Parameter api.sourceId die ID der zuvor erstellten Datenquelle fest.
  5. Legen Sie für den Parameter github.user Ihren GitHub-Nutzernamen fest.
  6. Legen Sie für den Parameter github.token das zuvor erstellte Zugriffstoken fest.
  7. Speichern Sie die Datei.

Schema aktualisieren

Der Connector kann sowohl strukturierte als auch unstrukturierte Inhalte indexieren. Bevor Sie Daten indexieren können, müssen Sie das Schema für die Datenquelle aktualisieren. Führen Sie den folgenden Befehl aus, um das Schema zu aktualisieren:

mvn exec:java -Dexec.mainClass=com.google.cloudsearch.tutorial.SchemaTool \
    -Dexec.args="-Dconfig=sample-config.properties"

Connector ausführen

Mit folgendem Befehl starten Sie den Connector und beginnen mit der Indexierung:

mvn exec:java -Dexec.mainClass=com.google.cloudsearch.tutorial.GithubConnector \
    -Dexec.args="-Dconfig=sample-config.properties"

In der Standardkonfiguration wird vom Connector ein einzelnes Repository in der Organisation googleworkspace indexiert. Die Indexierung des Repositorys dauert etwa eine Minute. Nach der ersten Indexierung fragt der Connector weiterhin Änderungen am Repository ab, die im Cloud Search-Index widergespiegelt werden müssen.

Code prüfen

In den verbleibenden Abschnitten erfahren Sie, wie der Connector aufgebaut ist.

Anwendung starten

Der Einstiegspunkt für den Connector ist die Klasse GithubConnector. Die Methode main instanziiert die IndexingApplication des SDKs und startet sie.

GithubConnector.java
/**
 * Main entry point for the connector. Creates and starts an indexing
 * application using the {@code ListingConnector} template and the sample's
 * custom {@code Repository} implementation.
 *
 * @param args program command line arguments
 * @throws InterruptedException thrown if an abort is issued during initialization
 */
public static void main(String[] args) throws InterruptedException {
  Repository repository = new GithubRepository();
  IndexingConnector connector = new ListingConnector(repository);
  IndexingApplication application = new IndexingApplication.Builder(connector, args)
      .build();
  application.start();
}

Mit der vom SDK bereitgestellten Methode ListingConnector wird eine Durchlaufstrategie implementiert, bei der Cloud Search-Warteschlangen verwendet werden, um den Status von Elementen im Index nachzuverfolgen. Es erfolgt außerdem eine Delegierung an das vom Beispielconnector implementierte GithubRepository, um Zugriff auf Inhalte in GitHub zu gewähren.

GitHub-Repositories durchlaufen

Bei Durchläufen mit vollständiger Indexierung (Full Traversal) wird die Methode getIds() aufgerufen, um zu indexierende Elemente in die Warteschlange zu verschieben.

Mit dem Connector können mehrere Repositories oder Organisationen indexiert werden. Es finden jedoch nie mehrere Durchläufe gleichzeitig statt, um das Risiko von Fehlern zu minimieren. Ein Prüfpunkt wird zurückgegeben, bei dem in den Ergebnissen des Durchlaufs die Liste mit Repositories enthalten ist, die durch weitere Aufrufe von getIds() indexiert werden sollen. Wenn ein Fehler auftritt, wird die Indexierung im aktuellen Repository fortgesetzt, anstatt noch einmal von vorn zu beginnen.

GithubRepository.java
/**
 * Gets all of the existing item IDs from the data repository. While
 * multiple repositories are supported, only one repository is traversed
 * per call. The remaining repositories are saved in the checkpoint
 * are traversed on subsequent calls. This minimizes the amount of
 * data that needs to be reindex in the event of an error.
 *
 * <p>This method is called by {@link ListingConnector#traverse()} during
 * <em>full traversals</em>. Every document ID and metadata hash value in
 * the <em>repository</em> is pushed to the Cloud Search queue. Each pushed
 * document is later polled and processed in the {@link #getDoc(Item)} method.
 * <p>
 * The metadata hash values are pushed to aid document change detection. The
 * queue sets the document status depending on the hash comparison. If the
 * pushed ID doesn't yet exist in Cloud Search, the document's status is
 * set to <em>new</em>. If the ID exists but has a mismatched hash value,
 * its status is set to <em>modified</em>. If the ID exists and matches
 * the hash value, its status is unchanged.
 *
 * <p>In every case, the pushed content hash value is only used for
 * comparison. The hash value is only set in the queue during an
 * update (see {@link #getDoc(Item)}).
 *
 * @param checkpoint value defined and maintained by this connector
 * @return this is typically a {@link PushItems} instance
 */
@Override
public CheckpointCloseableIterable<ApiOperation> getIds(byte[] checkpoint)
    throws RepositoryException {
  List<String> repositories;
  // Decode the checkpoint if present to get the list of remaining
  // repositories to index.
  if (checkpoint != null) {
    try {
      FullTraversalCheckpoint decodedCheckpoint = FullTraversalCheckpoint
          .fromBytes(checkpoint);
      repositories = decodedCheckpoint.getRemainingRepositories();
    } catch (IOException e) {
      throw new RepositoryException.Builder()
          .setErrorMessage("Unable to deserialize checkpoint")
          .setCause(e)
          .build();
    }
  } else {
    // No previous checkpoint, scan for repositories to index
    // based on the connector configuration.
    try {
      repositories = scanRepositories();
    } catch (IOException e) {
      throw toRepositoryError(e, Optional.of("Unable to scan repositories"));
    }
  }

  if (repositories.isEmpty()) {
    // Nothing left to index. Reset the checkpoint to null so the
    // next full traversal starts from the beginning
    Collection<ApiOperation> empty = Collections.emptyList();
    return new CheckpointCloseableIterableImpl.Builder<>(empty)
        .setCheckpoint((byte[]) null)
        .setHasMore(false)
        .build();
  }

  // Still have more repositories to index. Pop the next repository to
  // index off the list. The remaining repositories make up the next
  // checkpoint.
  String repositoryToIndex = repositories.get(0);
  repositories = repositories.subList(1, repositories.size());

  try {
    log.info(() -> String.format("Traversing repository %s", repositoryToIndex));
    Collection<ApiOperation> items = collectRepositoryItems(repositoryToIndex);
    FullTraversalCheckpoint newCheckpoint = new FullTraversalCheckpoint(repositories);
    return new CheckpointCloseableIterableImpl.Builder<>(items)
        .setHasMore(true)
        .setCheckpoint(newCheckpoint.toBytes())
        .build();
  } catch (IOException e) {
    String errorMessage = String.format("Unable to traverse repo: %s",
        repositoryToIndex);
    throw toRepositoryError(e, Optional.of(errorMessage));
  }
}

Wenn ein einzelnes GitHub-Repository durchlaufen wird, kommt die Methode collectRepositoryItems() zum Einsatz. Bei dieser wird eine Sammlung von ApiOperations zurückgegeben, die die Elemente darstellt, die in die Warteschlange verschoben werden. Elemente werden als Ressourcenname und als Hashwert verschoben. Der Hashwert repräsentiert den aktuellen Status des Elements.

Er wird für die nachfolgenden Durchläufe in den GitHub-Repositories verwendet. So können Sie überprüfen, ob sich der Inhalt geändert hat, ohne dass zusätzlicher Inhalt hochgeladen werden muss. Der Connector stellt alle Elemente blind in die Warteschlange. Wenn ein Element neu ist oder sich der Hashwert geändert hat, wird es in der Warteschlange für Abfragen verfügbar gemacht. Andernfalls gilt das Element als unverändert.

GithubRepository.java
/**
 * Fetch IDs to  push in to the queue for all items in the repository.
 * Currently captures issues & content in the master branch.
 *
 * @param name Name of repository to index
 * @return Items to push into the queue for later indexing
 * @throws IOException if error reading issues
 */
private Collection<ApiOperation> collectRepositoryItems(String name)
    throws IOException {
  List<ApiOperation> operations = new ArrayList<>();
  GHRepository repo = github.getRepository(name);

  // Add the repository as an item to be indexed
  String metadataHash = repo.getUpdatedAt().toString();
  String resourceName = repo.getHtmlUrl().getPath();
  PushItem repositoryPushItem = new PushItem()
      .setMetadataHash(metadataHash);
  PushItems items = new PushItems.Builder()
      .addPushItem(resourceName, repositoryPushItem)
      .build();

  operations.add(items);
  // Add issues/pull requests & files
  operations.add(collectIssues(repo));
  operations.add(collectContent(repo));
  return operations;
}

Warteschlange wird verarbeitet

Nach dem vollständigen Durchlauf werden vom Connector Elemente in der Warteschlange abgefragt, die indexiert werden müssen. Für jedes Element, das aus der Warteschlange genommen wird, wird die Methode getDoc() aufgerufen. Das Element wird durch sie aus GitHub ausgelesen und in die für die Indexierung geeignete Darstellung konvertiert.

Da der Connector für Livedaten ausgeführt wird, die sich jederzeit ändern können, wird von getDoc() auch überprüft, ob die Elemente in der Warteschlange noch gültig sind. Nicht mehr bestehende Elemente werden aus dem Index gelöscht.

GithubRepository.java
/**
 * Gets a single data repository item and indexes it if required.
 *
 * <p>This method is called by the {@link ListingConnector} during a poll
 * of the Cloud Search queue. Each queued item is processed
 * individually depending on its state in the data repository.
 *
 * @param item the data repository item to retrieve
 * @return the item's state determines which type of
 * {@link ApiOperation} is returned:
 * {@link RepositoryDoc}, {@link DeleteItem}, or {@link PushItem}
 */
@Override
public ApiOperation getDoc(Item item) throws RepositoryException {
  log.info(() -> String.format("Processing item: %s ", item.getName()));
  Object githubObject;
  try {
    // Retrieve the item from GitHub
    githubObject = getGithubObject(item.getName());
    if (githubObject instanceof GHRepository) {
      return indexItem((GHRepository) githubObject, item);
    } else if (githubObject instanceof GHPullRequest) {
      return indexItem((GHPullRequest) githubObject, item);
    } else if (githubObject instanceof GHIssue) {
      return indexItem((GHIssue) githubObject, item);
    } else if (githubObject instanceof GHContent) {
      return indexItem((GHContent) githubObject, item);
    } else {
      String errorMessage = String.format("Unexpected item received: %s",
          item.getName());
      throw new RepositoryException.Builder()
          .setErrorMessage(errorMessage)
          .setErrorType(RepositoryException.ErrorType.UNKNOWN)
          .build();
    }
  } catch (FileNotFoundException e) {
    log.info(() -> String.format("Deleting item: %s ", item.getName()));
    return ApiOperations.deleteItem(item.getName());
  } catch (IOException e) {
    String errorMessage = String.format("Unable to retrieve item: %s",
        item.getName());
    throw toRepositoryError(e, Optional.of(errorMessage));
  }
}

Wie die einzelnen vom Connector indexierten GitHub-Elemente in Cloud Search dargestellt werden, ist durch die zugehörige Methode indexItem() festgelegt. Für die Darstellung von Inhaltselementen sieht der Code z. B. so aus:

GithubRepository.java
/**
 * Build the ApiOperation to index a content item (file).
 *
 * @param content      Content item to index
 * @param previousItem Previous item state in the index
 * @return ApiOperation (RepositoryDoc if indexing,  PushItem if not modified)
 * @throws IOException if unable to create operation
 */
private ApiOperation indexItem(GHContent content, Item previousItem)
    throws IOException {
  String metadataHash = content.getSha();

  // If previously indexed and unchanged, just requeue as unmodified
  if (canSkipIndexing(previousItem, metadataHash)) {
    return notModified(previousItem.getName());
  }

  String resourceName = new URL(content.getHtmlUrl()).getPath();
  FieldOrValue<String> title = FieldOrValue.withValue(content.getName());
  FieldOrValue<String> url = FieldOrValue.withValue(content.getHtmlUrl());

  String containerName = content.getOwner().getHtmlUrl().getPath();
  String programmingLanguage = FileExtensions.getLanguageForFile(content.getName());

  // Structured data based on the schema
  Multimap<String, Object> structuredData = ArrayListMultimap.create();
  structuredData.put("organization", content.getOwner().getOwnerName());
  structuredData.put("repository", content.getOwner().getName());
  structuredData.put("path", content.getPath());
  structuredData.put("language", programmingLanguage);

  Item item = IndexingItemBuilder.fromConfiguration(resourceName)
      .setTitle(title)
      .setContainerName(containerName)
      .setSourceRepositoryUrl(url)
      .setItemType(IndexingItemBuilder.ItemType.CONTAINER_ITEM)
      .setObjectType("file")
      .setValues(structuredData)
      .setVersion(Longs.toByteArray(System.currentTimeMillis()))
      .setHash(content.getSha())
      .build();

  // Index the file content too
  String mimeType = FileTypeMap.getDefaultFileTypeMap()
      .getContentType(content.getName());
  AbstractInputStreamContent fileContent = new InputStreamContent(
      mimeType, content.read())
      .setLength(content.getSize())
      .setCloseInputStream(true);
  return new RepositoryDoc.Builder()
      .setItem(item)
      .setContent(fileContent, IndexingService.ContentFormat.RAW)
      .setRequestMode(IndexingService.RequestMode.SYNCHRONOUS)
      .build();
}

Im nächsten Schritt stellen Sie die Suchoberfläche bereit.

Zurück Weiter