Pour utiliser les bibliothèques Python OpenAI, installez le SDK OpenAI :
pip install openai
Pour vous authentifier avec l'API Chat Completions, vous pouvez modifier la configuration de votre client ou de votre environnement afin d'utiliser l'authentification Google et un point de terminaison Vertex AI. Choisissez la méthode qui vous semble la plus simple et suivez la procédure de configuration selon que vous souhaitez appeler des modèles Gemini ou des modèles Model Garden déployés automatiquement.
Certains modèles de Model Garden et les modèles Hugging Face compatibles doivent d'abord être déployés sur un point de terminaison Vertex AI avant de pouvoir traiter des requêtes.
Lorsque vous appelez ces modèles déployés automatiquement à partir de l'API Chat Completions, vous devez spécifier l'ID du point de terminaison. Pour lister vos points de terminaison Vertex AI existants, utilisez la commande gcloud ai endpoints list
.
Configuration du client
Pour obtenir des identifiants Google de manière programmatique dans Python, vous pouvez utiliser le SDK Python google-auth
:
pip install google-auth requests
Python
Avant d'essayer cet exemple, suivez les instructions de configuration pour Python décrites dans le guide de démarrage rapide de Vertex AI sur l'utilisation des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI pour Python.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Par défaut, les jetons d'accès durent une heure. Vous pouvez prolonger la durée de validité de votre jeton d'accès, ou actualiser régulièrement votre jeton et mettre à jour la variable openai.api_key
.
Variables d'environnement
Installez Google Cloud CLI. La bibliothèque OpenAI peut lire les variables d'environnement OPENAI_API_KEY
et OPENAI_BASE_URL
pour modifier l'authentification et le point de terminaison dans le client par défaut.
Définissez ces variables :
$ export PROJECT_ID=PROJECT_ID
$ export LOCATION=LOCATION
$ export OPENAI_API_KEY="$(gcloud auth application-default print-access-token)"
Pour appeler un modèle Gemini, définissez la variable MODEL_ID
et utilisez le point de terminaison openapi
:
$ export MODEL_ID=MODEL_ID
$ export OPENAI_BASE_URL="https://${LOCATION}-aiplatform.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/${LOCATION}/endpoints/openapi"
Pour appeler un modèle déployé automatiquement à partir de Model Garden, définissez la variable ENDPOINT
et utilisez cela dans votre URL à la place :
$ export ENDPOINT=ENDPOINT_ID
$ export OPENAI_BASE_URL="https://${LOCATION}-aiplatform.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/${LOCATION}/endpoints/${ENDPOINT}"
Ensuite, initialisez le client :
client = openai.OpenAI()
L'API Gemini Chat Completions utilise OAuth pour s'authentifier avec un jeton d'accès de courte durée.
Par défaut, les jetons d'accès durent une heure. Vous pouvez prolonger la durée de validité de votre jeton d'accès, ou actualiser régulièrement votre jeton et mettre à jour la variable d'environnement OPENAI_API_KEY
.
Actualiser vos identifiants
L'exemple suivant montre comment actualiser automatiquement vos identifiants si nécessaire :
Python
Étapes suivantes
- Consultez des exemples d'appel de l'API Chat Completions avec la syntaxe compatible avec OpenAI.
- Consultez des exemples d'appel de l'API Inference avec la syntaxe compatible avec OpenAI.
- Consultez des exemples d'appel de l'API Function Calling avec la syntaxe compatible avec OpenAI.
- Apprenez-en plus sur l'API Gemini.
- Apprenez-en plus sur la migration d'Azure OpenAI vers l'API Gemini.