-
Software
- Procyon Benchmark-Suite
- AI Text Generation Benchmark
- AI Image Generation-Benchmark
- AI Inference Benchmark for Android
- AI Computer Vision-Benchmark
- Battery Life-Benchmark
- One-Hour Battery Consumption-Benchmark
- Office Productivity-Benchmark
- Photo Editing-Benchmark
- Video Editing-Benchmark
- Testdriver
- 3DMark
- 3DMark für Android
- 3DMark für iOS
- PCMark 10
- PCMark für Android
- VRMark
- MEHR …
-
Services
-
Support
-
Einblicke
-
Ranking
-
Mehr
Procyon® AI Inference Benchmark for Android
Benchmark AI-Leistung und -Qualität mit NNAPI
Maschinelles Lernen bietet aufregende neue Funktionen in mobilen Apps. Viele Geräte verfügen jetzt über dedizierte Hardware, um die rechenintensiven Vorgänge zu beschleunigen, die für die Inferenz auf dem Gerät erforderlich sind. Die Android Neural Networks API (NNAPI) bietet eine Basisschicht für Frameworks des maschinellen Lernens, um auf die dedizierte AI-Verarbeitungshardware in einem Gerät zuzugreifen.
The Procyon AI Inference Benchmark for Android measures the AI performance of Android devices using NNAPI. Der Benchmark-Score spiegelt sowohl die Geschwindigkeit als auch die Genauigkeit der Inferenzoperationen auf dem Gerät wider. With the Procyon AI Inference Benchmark for Android, not only can you measure the performance of dedicated AI processing hardware in Android devices, you can also verify NNAPI implementation quality.
Der Benchmark verwendet eine Reihe gängiger neuronaler Netze auf dem neuesten Stand der Technik, die auf dem Gerät ausgeführt werden, um allgemeine Aufgaben des maschinellen Sehens auszuführen. Der Benchmark wird auf der dedizierten AI-Verarbeitungshardware des Geräts über NNAPI ausgeführt. Der Benchmark führt jeden Test zum Vergleich auch direkt auf der GPU und / oder der CPU aus.
Jetzt kaufenMerkmale
- Tests basierend auf gängigen Aufgaben des maschinellen Sehens unter Verwendung modernster neuronaler Netze.
- Misst sowohl die Inferenzleistung als auch die Ausgabequalität.
- Vergleichen Sie die Leistung von NNAPI, CPU und GPU.
- Überprüfen Sie die NNAPI-Implementierung und -Kompatibilität.
- Optimierung der Treiber für Hardwarebeschleuniger.
- Vergleichen Sie die für Float und Integer optimierte Modellleistung.
- Einfache Einrichtung und Verwendung auf eine Gerät oder über ADB.
NNAPI Leistung und Qualität
With the Procyon AI Inference Benchmark for Android, you can measure the performance of dedicated AI processing hardware and verify NNAPI implementation quality with tests based on common machine-vision tasks.
Entwickelt für Profis
We created the Procyon AI Inference Benchmark for Android for engineering teams who need independent, standardized tools for assessing the general AI performance of NNAPI implementations and dedicated mobile hardware.
Schnell und einfach zu bedienen
Der Benchmark ist einfach zu installieren und auszuführen - keine komplizierte Konfiguration erforderlich. Führen Sie den Benchmark auf dem Gerät oder über ADB aus, Zeigen Sie Benchmark-Ergebnisse, Diagramme und Rankings in der App an oder exportieren Sie detaillierte Ergebnisdateien zur weiteren Analyse.
Entwickelt mit Branchenexpertise
Procyon benchmarks are designed for industry, enterprise and press use with tests and features created specifically for professional users. AI Inference Benchmark für Android wurde zusammen mit Industriepartnern im Rahmen des UL Benchmark Development Program (BDP) konzipiert und entwickelt. Das BDP ist eine Initiative von UL Solutions, die zum Ziel hat, durch enge Zusammenarbeit mit den Programm-Mitgliedern relevante und unparteiische Benchmarks zu schaffen.
Neurale Netzwerk Modelle
MobileNet V3
MobileNet V3 ist ein kompaktes visuelles Erkennungsmodell, das speziell für mobile Geräte entwickelt wurde. Der Benchmark verwendet MobileNet V3, um das Motiv eines Bildes zu identifizieren, ein Bild als Eingabe zu verwenden und eine Liste von Wahrscheinlichkeiten für den Inhalt des Bildes auszugeben. Der Benchmark verwendet die große minimalistische Variante von MobileNet V3.
Inception V4
Inception V4 ist ein hochmodernes Modell für Bildklassifizierungsaufgaben. Es wurde auf Genauigkeit ausgelegt und ist ein viel breiteres und tieferes Modell als MobileNet. Der Benchmark verwendet Inception V4, um das Motiv eines Bildes zu identifizieren, wobei ein Bild als Eingabe verwendet und eine Liste von Wahrscheinlichkeiten für den im Bild identifizierten Inhalt ausgegeben wird.
SSDLite MobileNet V3
SSDLite ist ein Objekterkennungsmodell, mit dem Begrenzungsrahmen um Objekte in einem Bild erstellt werden sollen. SSDLite verwendet MobileNet zur Funktionsextraktion, um die Objekterkennung in Echtzeit auf Mobilgeräten zu ermöglichen. Im Benchmark verwendet die Float-Version von SSDLite die kleine minimalistische MobileNet V3-Variante. Die Integer-Version verwendet die Edge-TPU-Variante von MobileNet V3.
DeepLab V3
DeepLab ist ein Bildsegmentierungsmodell, das darauf abzielt, die Pixel eines Bildes zu gruppieren, die zur gleichen Objektklasse gehören. Die semantische Bildsegmentierung kennzeichnet jeden Bereich des Bildes mit einer Objektklasse. Der Benchmark verwendet MobileNet V2 zur Merkmalsextraktion, um eine schnelle Inferenz mit geringem Qualitätsunterschied im Vergleich zu größeren Modellen zu ermöglichen.
Benutzerdefinierte CNN
Der Benchmark umfasst ein benutzerdefiniertes Convolutional Neural Network (CNN), das auf der AlexNet-Architektur basiert. Es dient zum Testen der Leistung grundlegender CNN-Operationen und wird anhand zufällig generierter Trainingsdaten trainiert. Es enthält zwei Faltungsebenen, gefolgt von Max Pooling- und Dropout-Ebenen, und eine vollständig verbundene Ebene.
Integer und Float Modelle
Der Benchmark umfasst sowohl float- als auch integer-optimierte Versionen jedes Modells. Jedes Modell läuft nacheinander auf der gesamten kompatiblen Hardware des Geräts. Bei NNAPI verwendet der Benchmark die dedizierte AI-Verarbeitungshardware des Geräts, sofern dies unterstützt wird. Float-Modelle verwenden NNAPI oder werden direkt auf der CPU oder GPU ausgeführt. Integer-Modelle verwenden NNAPI oder werden direkt auf der CPU ausgeführt.
Ergebnisse und Erkenntnisse
Benchmark-Scores
Testen Sie Geräte und Prozessoren und vergleichen Sie Leistung und Qualität mit Integer- und Float-Modellen.
Leistungsdiagramme
Ein Diagramm für jedes Modell zeigt die Inferenzzeit mit NAPPI und anderen verfügbaren Prozessoren.
Hardware-Überwachung
Sehen Sie, wie sich Temperatur, Ladezustand des Akkus und Speichernutzung während des Benchmark-Laufs geändert haben.
Modellausgabe
Überprüfen Sie die Ausgabe jedes Modells, um sicherzustellen, dass der Accelerator die richtigen Ergebnisse zurückgibt.
Geräterangliste
Sehen Sie in der Rangliste der In-App-Leistung, wie Ihr Gerät mit anderen Modellen im Vergleich aufgeführt wird.
Kostenlose Testversion
Testversion anfordernSite-Lizenz
Angebot anfragen Presselizenz- Annual site license for Procyon AI Inference Benchmark for Android.
- Unbegrenzte Anzahl von Benutzern.
- Unbegrenzte Anzahl von Geräten.
- Vorrangiger Support per E-Mail und Telefon
BDP
Kontaktieren Sie uns Mehr erfahrenKontaktieren Sie uns
Das Benchmark Development Program™ ist eine Initiative von UL Solutions zum Ausbau von Partnerschaften mit Technologiefirmen.
OEMs, ODMs, Komponentenhersteller und deren Zulieferer sind eingeladen, gemeinsam mit uns neue Benchmarks für die AI-Verarbeitung zu entwickeln. Bitte kontaktieren Sie uns für Details.
Minimale Systemanforderungen
Betriebssystem | Android 10 |
---|---|
Speicher | 400 MB freier Speicherplatz |
Support
Neueste Version 1.0.56 | 27. Nov. 2020
Sprachen
- Englisch