מעבר ל-LiteRT מ-TensorFlow Lite

כל הפיתוח החדש של סביבת זמן הריצה של Google לביצועים גבוהים ל-AI במכשיר יתבצע באופן בלעדי ב-LiteRT. אפליקציות שמשתמשות בחבילות של TensorFlow Lite ימשיכו לפעול, אבל כל העדכונים החדשים ייכללו רק בחבילות של LiteRT. ממשקי ה-API של LiteRT מכילים את אותם שמות של שיטות כמו ממשקי ה-API של TF Lite, כך שעבור המעבר ל-LiteRT לא נדרשים שינויים מפורטים בקוד.

לגבי שינויים בשמות החבילות, אפשר לעיין במדריכי ההעברה הבאים לפלטפורמות ספציפיות.

העברה באמצעות Android

כדי להעביר אפליקציה ל-Android באמצעות Tensorflow Lite, מחליפים את התלות מ-org.tensorflow:tensorflow-lite ל-com.google.ai.edge.litert. מאגר Maven של LiteRT כולל את החבילות הבאות:

אפשר לבצע את השינוי הזה ביחסי התלות של build.gradle:

dependencies {
  ...
  implementation `com.google.ai.edge.litert:litert:1.0.1`
}

Play Services

ב-LiteRT בסביבת זמן הריצה של Play Services, ההסתמכות על play-services-tflite ממש��כ�� לפ��ול. אם האפליקציה שלכם כבר משתמשת בסביבת זמן הריצה של Play Services עם TensorFlow Lite, אין צורך לבצע שינויים בקוד.

כדי להשתמש ב-LiteRT ב-Play Services, צריך להוסיף את הקוד הבא ליחסי התלות של build.gradle:

dependencies {
...
    // LiteRT dependencies for Google Play services
    implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
    // Optional: include LiteRT Support Library
    implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}

העברה באמצעות Python

כדי להעביר קוד Python באמצעות Tensorflow Lite, מחליפים את חבילת ה-PIP מ-tflite-runtime ל-ai-edge-litert.

התקנה של LiteRT עם PIP:

$ python3 -m pip install ai-edge-litert

מייבאים את LiteRT באמצעות:

from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)

ספריות אחרות

ערכות ה-SDK של Swift ו-Objective-C ל-iOS, ‏C++ SDK, ‏Task Library וספריית Model Maker עדיין קיימות בממשקי ה-API של TensorFlow Lite. לא מומלץ להעביר אפליקציות שמשתמשות בספריות או בערכות ה-SDK האלה ל-LiteRT.