Cette page explique comment ancrer les réponses d'un modèle à l'aide de la recherche Google, qui utilise des données Web accessibles au public.
Ancrage avec la recherche Google
Si vous souhaitez associer votre modèle à des connaissances du monde entier, à un large éventail de sujets possibles ou à des informations à jour disponibles sur Internet, utilisez l'ancrage avec la recherche Google.
Pour en savoir plus sur l'ancrage des modèles dans Vertex AI, consultez Présentation de l'ancrage.
Modèles compatibles
Cette section liste les modèles compatibles avec l'ancrage avec la recherche.
- Gemini 2.5 Flash avec l'audio natif de l'API Live
Aperçu - Gemini 2.0 Flash avec API en direct
Aperçu - Gemini 2.5 Pro
Preview - Gemini 2.5 Flash
Preview - Gemini 2.0 Flash
Langues disponibles
Pour obtenir la liste des langues disponibles, consultez Langues.
Ancrer votre modèle avec la recherche Google
Suivez les instructions ci-dessous pour ancrer un modèle avec des données Web accessibles au public.
Remarques
Pour utiliser l'ancrage avec la recherche Google, vous devez activer les suggestions de recherche Google. Pour en savoir plus, consultez Utiliser les suggestions de recherche Google.
Pour obtenir des résultats optimaux, utilisez une température de
0.0
. Pour en savoir plus sur la définition de cette configuration, consultez le corps de la requête API Gemini dans la documentation de référence du modèle.L'ancrage avec la recherche Google est limité à un million de requêtes par jour. Si vous avez besoin de plus de requêtes, contactez l'assistanceGoogle Cloud pour obtenir de l'aide.
Console
Pour utiliser l'ancrage avec la recherche Google avec Vertex AI Studio, procédez comme suit :
- Dans la console Google Cloud , accédez à la page Vertex AI Studio.
- Cliquez sur l'onglet Forme libre.
- Dans le panneau latéral, cliquez sur le bouton d'activation Ancrer des réponses de modèle.
- Cliquez sur Personnaliser et définissez la recherche Google comme source.
- Saisissez votre requête dans la zone de texte et cliquez sur Envoyer.
Les réponses données à vos requêtes sont désormais basées sur la recherche Google.
Gen AI SDK for Python
Installer
pip install --upgrade google-genai
Pour en savoir plus, consultez la documentation de référence du SDK.
Définissez des variables d'environnement pour utiliser le SDK Gen AI avec Vertex AI :
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Gen AI SDK for Go
Découvrez comment installer ou mettre à jour le Gen AI SDK for Go.
Pour en savoir plus, consultez la documentation de référence du SDK.
Définissez des variables d'environnement pour utiliser le SDK Gen AI avec Vertex AI :
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
REST
Avant d'utiliser des données de requête, effectuez les remplacements suivants :
- LOCATION : région dans laquelle traiter la requête.
- PROJECT_ID : l'ID de votre projet.
- MODEL_ID : l'ID du modèle multimodal.
- TEXT : instructions textuelles à inclure dans la requête.
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent
Corps JSON de la requête :
{ "contents": [{ "role": "user", "parts": [{ "text": "TEXT" }] }], "tools": [{ "googleSearch": {} }], "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID" }
Pour envoyer votre requête, développez l'une des options suivantes :
Vous devriez recevoir une réponse JSON de ce type :
{ "candidates": [ { "content": { "role": "model", "parts": [ { "text": "The weather in Chicago this weekend, will be partly cloudy. The temperature will be between 49°F (9°C) and 55°F (13°C) on Saturday and between 51°F (11°C) and 56°F (13°C) on Sunday. There is a slight chance of rain on both days.\n" } ] }, "finishReason": "STOP", "groundingMetadata": { "webSearchQueries": [ "weather in Chicago this weekend" ], "searchEntryPoint": { "renderedContent": "..." }, "groundingChunks": [ { "web": { "uri": "https://www.google.com/search?q=weather+in+Chicago,+IL", "title": "Weather information for locality: Chicago, administrative_area: IL", "domain": "google.com" } }, { "web": { "uri": "...", "title": "weatherbug.com", "domain": "weatherbug.com" } } ], "groundingSupports": [ { "segment": { "startIndex": 85, "endIndex": 214, "text": "The temperature will be between 49°F (9°C) and 55°F (13°C) on Saturday and between 51°F (11°C) and 56°F (13°C) on Sunday." }, "groundingChunkIndices": [ 0 ], "confidenceScores": [ 0.8662828 ] }, { "segment": { "startIndex": 215, "endIndex": 261, "text": "There is a slight chance of rain on both days." }, "groundingChunkIndices": [ 1, 0 ], "confidenceScores": [ 0.62836814, 0.6488607 ] } ], "retrievalMetadata": {} } } ], "usageMetadata": { "promptTokenCount": 10, "candidatesTokenCount": 98, "totalTokenCount": 108, "trafficType": "ON_DEMAND", "promptTokensDetails": [ { "modality": "TEXT", "tokenCount": 10 } ], "candidatesTokensDetails": [ { "modality": "TEXT", "tokenCount": 98 } ] }, "modelVersion": "gemini-2.0-flash", "createTime": "2025-05-19T14:42:55.000643Z", "responseId": "b0MraIMFoqnf-Q-D66G4BQ" }
Comprendre votre réponse
Si la requête de votre modèle est correctement ancrée dans la recherche Google depuis Vertex AI Studio ou depuis l'API, les réponses incluent des métadonnées avec des liens sources (URL Web). Toutefois, il existe plusieurs raisons expliquant pourquoi il est possible que ces métadonnées ne soient pas fournies, et donc la réponse de la requête ne sera pas ancrée. Par exemple : faible pertinence de la source ou informations incomplètes dans la réponse du modèle.
Support d'ancrage
Il est recommandé d'afficher un support d'ancrage, car cela vous aide à valider les réponses des éditeurs et vous permet d'apprendre davantage.
Le support d'ancrage des réponses provenant de sources de la recherche Google doit être affiché à la fois de manière intégrée et globale. Par exemple, consultez l'image suivante pour savoir comment procéder.
Utilisation d'options de moteur de recherche alternatives
L'utilisation de l'ancrage avec la recherche Google n'empêche pas le client de proposer d'autres options de moteur de recherche, d'utiliser d'autres options de recherche par défaut pour les applications client, ni d'afficher des suggestions ou résultats de recherche propres ou tiers dans les applications client, à condition que ces services de recherche autres que Google ou les résultats associés s'affichent séparément des résultats et des suggestions de recherche ancrés, et qu'ils ne puissent pas, de manière raisonnable, être attribués aux résultats fournis par Google ni confondus avec ces derniers.
Avantages
Les requêtes et les workflows complexes suivants, qui nécessitent de la planification, du raisonnement et de la réflexion, sont possibles lorsque vous utilisez la recherche Google comme outil :
- Vous pouvez utiliser l'ancrage pour vous assurer que les réponses sont basées sur les informations les plus récentes et les plus précises.
- Vous pouvez récupérer des artefacts sur le Web pour effectuer une analyse.
- Vous pouvez trouver des images, des vidéos ou d'autres contenus multimédias pertinents pour faciliter le raisonnement multimodal ou la génération de tâches.
- Vous pouvez coder, résoudre des problèmes techniques et effectuer d'autres tâches spécialisées.
- Vous pouvez trouver des informations spécifiques à une région ou aider à traduire du contenu avec précision.
- Vous pouvez trouver des sites Web pertinents à consulter.
Étapes suivantes
- Pour en savoir plus sur l'ancrage, consultez Présentation de l'ancrage.
- Pour en savoir plus sur l'envoi de requêtes de chat, consultez la section Chat multitour.
- Pour en savoir plus sur les bonnes pratiques de l'IA responsable et les filtres de sécurité de Vertex AI, consultez Bonnes pratiques concernant la sécurité.