כל הפיתוח החדש של סביבת זמן הריצה של Google לביצועים גבוהים ל-AI במכשיר יתבצע באופן בלעדי ב-LiteRT. אפליקציות שמשתמשות בחבילות של TensorFlow Lite ימשיכו לפעול, אבל כל העדכונים החדשים ייכללו רק בחבילות של LiteRT. ממשקי ה-API של LiteRT מכילים את אותם שמות של שיטות כמו ממשקי ה-API של TF Lite, כך שעבור המעבר ל-LiteRT לא נדרשים שינויים מפורטים בקוד.
לגבי שינויים בשמות החבילות, אפשר לעיין במדריכי ההעברה הבאים לפלטפורמות ספציפיות.
העברה באמצעות Android
כדי להעביר אפליקציה ל-Android באמצעות Tensorflow Lite, מחליפים את התלות מ-org.tensorflow:tensorflow-lite
ל-com.google.ai.edge.litert
. מאגר Maven של LiteRT כולל את החבילות הבאות:
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
אפשר לבצע את השינוי הזה ביחסי התלות של build.gradle
:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
Play Services
ב-LiteRT בסביבת זמן הריצה של Play Services, ההסתמכות על play-services-tflite
ממש��כ�� לפ��ול. אם האפליקציה שלכם כבר משתמשת בסביבת זמן הריצה של Play Services עם TensorFlow Lite, אין צורך לבצע שינויים בקוד.
כדי להשתמש ב-LiteRT ב-Play Services, צריך להוסיף את הקוד הבא ליחסי התלות של build.gradle
:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
העברה באמצעות Python
כדי להעביר קוד Python באמצעות Tensorflow Lite, מחליפים את חבילת ה-PIP מ-tflite-runtime
ל-ai-edge-litert
.
התקנה של LiteRT עם PIP:
$ python3 -m pip install ai-edge-litert
מייבאים את LiteRT באמצעות:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
ספריות אחרות
ערכות ה-SDK של Swift ו-Objective-C ל-iOS, C++ SDK, Task Library וספריית Model Maker עדיין קיימות בממשקי ה-API של TensorFlow Lite. לא מומלץ להעביר אפליקציות שמשתמשות בספריות או בערכות ה-SDK האלה ל-LiteRT.