GpuDelegateFactory.Options

class statis publik GpuDelegateFactory.Options
Subclass Langsung yang Diketahui

Opsi delegasi.

Class Bertingkat

enum GpuDelegateFactory.Options.GpuBackend Backend GPU mana yang akan dipilih. 

Konstanta

int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER Delegasi hanya akan digunakan sekali, oleh karena itu, waktu bootstrap/init harus diperhitungkan.
int INFERENCE_PREFERENCE_SUSTAINED_SPEED Memilih memaksimalkan throughput.

Konstruktor Publik

Opsi()

Metode Publik

boolean
GpuDelegateFactory.Options.GpuBackend
int
String
String
boolean
GpuDelegateFactory.Options
setForceBackend(GpuDelegateFactory.Options.GpuBackend forceBackend)
Menetapkan Backend GPU.
GpuDelegateFactory.Options
setInferencePreference(int preferences)
Menetapkan preferensi inferensi untuk tradeoff presisi/kompilasi/runtime.
GpuDelegateFactory.Options
setPrecisionLossAllowed(boolean PrecisionLossAllowed)
Menetapkan apakah kerugian presisi diizinkan.
GpuDelegateFactory.Options
setQuantizedModelsAllowed(boolean quantizedModelsAllowed)
Memungkinkan model terkuantisasi yang berjalan dengan delegasi.
GpuDelegateFactory.Options
setSerializationParams(String serializationDir, String modelToken)
Mengaktifkan serialisasi pada delegasi.

Metode Turunan

Konstanta

public static final int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER

Delegasi hanya akan digunakan sekali, oleh karena itu, waktu bootstrap/init harus diperhitungkan.

Nilai Konstanta: 0

public static final int INFERENCE_PREFERENCE_SUSTAINED_SPEED

Memilih memaksimalkan throughput. Delegasi yang sama akan digunakan berulang kali di beberapa input.

Nilai Konstanta: 1

Konstruktor Publik

publik Opsi ()

Metode Publik

public boolean areQuantizedModelsAllowed ()

public GpuDelegateFactory.Options.GpuBackend getForceBackend ()

public int getInferencePreference ()

public String getModelToken ()

public String getSerializationDir ()

publik boolean isPrecisionLossAllowed ()

public GpuDelegateFactory.Options setForceBackend (GpuDelegateFactory.Options.GpuBackend forceBackend)

Menetapkan Backend GPU.

Parameter
forceBackend

public GpuDelegateFactory.Options setInferencePreference (int preferences)

Menetapkan preferensi inferensi untuk tradeoff presisi/kompilasi/runtime.

Parameter
preference Salah satu dari `INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER` (default), `INFERENCE_PREFERENCE_SUSTAINED_SPEED`.

publik GpuDelegateFactory.Options setPrecisionLossAllowed (boolean precisionLossAllowed)

Menetapkan apakah kerugian presisi diizinkan.

Parameter
precisionLossAllowed Jika `true` (default), GPU dapat mengukur tensor, nilai downcast, yang diproses di FP16. Jika `false`, komputasi dilakukan dalam floating point 32-bit.

public GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)

Memungkinkan model terkuantisasi yang berjalan dengan delegasi.

PERINGATAN: Ini adalah API eksperimental dan dapat berubah sewaktu-waktu.

Parameter
quantizedModelsAllowed Jika true (default), GPU dapat menjalankan model terkuantisasi.

publik GpuDelegateFactory.Options setSerializationParams (String serializationDir, String modelToken)

Mengaktifkan serialisasi pada delegasi. Perhatikan bahwa serializationDir dan modelToken non-null diperlukan untuk serialisasi.

PERINGATAN: Ini adalah API eksperimental dan dapat berubah sewaktu-waktu.

Parameter
serializationDir Direktori yang digunakan untuk menyimpan data. Pemanggil bertanggung jawab untuk memastikan model tidak disimpan dalam direktori publik. Sebaiknya gunakan Context.getCodeCacheDir() untuk memberikan lokasi pribadi untuk aplikasi di Android.
modelToken Token yang akan digunakan untuk mengidentifikasi model. Pemanggil bertanggung jawab untuk memastikan token bersifat unik untuk grafik dan data model.