AI Benchmark

4,4
1,54 tys. opinii
100 tys.+
Pobrania
Ocena treści
Dla wszystkich
Zrzut ekranu
Zrzut ekranu
Zrzut ekranu
Zrzut ekranu
Zrzut ekranu
Zrzut ekranu
Zrzut ekranu
Zrzut ekranu

Informacje o aplikacji

Generowanie obrazu neuronowego, rozpoznawanie twarzy, klasyfikacja obrazu, odpowiadanie na pytania...

Czy Twój smartfon może obsługiwać najnowsze głębokie sieci neuronowe, aby wykonywać te i wiele innych zadań opartych na sztucznej inteligencji? Czy ma dedykowany układ AI? Czy jest wystarczająco szybki? Uruchom AI Benchmark, aby profesjonalnie ocenić wydajność AI!

Aktualny ranking telefonów: http://ai-benchmark.com/ranking

AI Benchmark mierzy szybkość, dokładność, zużycie energii i wymagania dotyczące pamięci dla kilku kluczowych modeli AI, Computer Vision i NLP. Wśród testowanych rozwiązań znajdują się metody Klasyfikacji Obrazu i Rozpoznawania Twarzy, modele AI realizujące generację obrazu neuronowego i tekstu, sieci neuronowe wykorzystywane do Super-Rozdzielczości i Uwydatniania Obrazu/Video, a także rozwiązania AI wykorzystywane w systemach autonomicznej jazdy i smartfonach do realnego Szacowanie głębi czasu i semantyczna segmentacja obrazu. Wizualizacja wyników algorytmów pozwala na graficzną ocenę ich wyników i poznanie aktualnego stanu wiedzy w różnych dziedzinach AI.

W sumie AI Benchmark składa się z 83 testów i 30 sekcji wymienionych poniżej:

Sekcja 1. Klasyfikacja, MobileNet-V3
Sekcja 2. Klasyfikacja, Incepcja-V3
Sekcja 3. Rozpoznawanie twarzy, Transformator świń
Sekcja 4. Klasyfikacja, EfficientNet-B4
Sekcja 5. Klasyfikacja, MobileViT-V2
Sekcje 6/7. Równoległe wykonanie modelu, 8 x Inception-V3
Sekcja 8. Śledzenie obiektów, YOLO-V8
Sekcja 9. Optyczne rozpoznawanie znaków, transformator ViT
Sekcja 10. Segmentacja semantyczna, DeepLabV3+
Sekcja 11. Segmentacja równoległa, 2 x DeepLabV3+
Sekcja 12. Segmentacja semantyczna, segmentowanie czegokolwiek
Sekcja 13. Usuwanie rozmycia zdjęć, IMDN
Sekcja 14. Super-rozdzielczość obrazu, ESRGAN
Sekcja 15. Super-rozdzielczość obrazu, SRGAN
Sekcja 16. Odszumianie obrazu, U-Net
Sekcja 17. Oszacowanie głębokości, głębokość MV3
Rozdział 18. Szacowanie głębokości, MiDaS 3.1
Sekcja 19/20. Wzmocnienie obrazu, DPED
Sekcja 21. Nauczony ISP kamery, MicroISP
Sekcja 22. Renderowanie efektu Bokeh, PyNET-V2 Mobile
Sekcja 23. Super-rozdzielczość wideo FullHD, XLSR
Sekcja 24/25. Super-rozdzielczość wideo 4K, VideoSR
Sekcja 26. Odpowiadanie na pytania, MobileBERT
Sekcja 27. Generowanie tekstu neuronowego, Lama2
Sekcja 28. Generowanie tekstu neuronowego, GPT2
Sekcja 29. Generowanie obrazu neuronowego, stabilna dyfuzja V1.5
Sekcja 30. Limity pamięci, ResNet

Poza tym można ładować i testować własne modele głębokiego uczenia się TensorFlow Lite w trybie PRO.

Szczegółowy opis testów można znaleźć tutaj: http://ai-benchmark.com/tests.html

Uwaga: akceleracja sprzętowa jest obsługiwana na wszystkich mobilnych układach SoC z dedykowanymi jednostkami NPU i akceleratorami AI, w tym chipsetami Qualcomm Snapdragon, MediaTek Dimensity / Helio, Google Tensor, HiSilicon Kirin, Samsung Exynos i UNISOC Tiger. Począwszy od AI Benchmark v4, można także włączyć akcelerację AI opartą na GPU na starszych urządzeniach w ustawieniach („Przyspiesz” -> „Włącz przyspieszenie GPU” / „Uzbroić NN”, wymagany jest OpenGL ES-3.0+).
Ostatnia aktualizacja
25 wrz 2024

Bezpieczeństwo danych

Podstawą bezpieczeństwa jest wiedza o tym, jak deweloperzy zbierają i udostępniają Twoje dane. Sposoby zapewniania prywatności i bezpieczeństwa danych mogą się różnić w zależności od użycia aplikacji, regionu i wieku użytkownika. Te informacje podał deweloper i z czasem może je aktualizować.
Żadne dane nie są udostępniane innym firmom
Dowiedz się więcej o deklarowaniu udostępniania danych przez deweloperów
Aplikacja nie zbiera danych
Dowiedz się więcej o deklarowaniu zbierania danych przez deweloperów

Oceny i opinie

4,4
1,48 tys. opinie
ᗪǺR̶K Ψ S̸TA̾R
16 września 2024
Rog phone 8 3243pkt😃
Czy to było pomocne?
Adam Bieniek
29 grudnia 2022
Motorola edge 30 ultra - 1733, to chyba nieźle😉
Czy to było pomocne?
Szymon Pyrczak
14 kwietnia 2023
One plus 10 pro 1537 pkt
1 osoba uznała tę opinię za pomocną
Czy to było pomocne?

Co nowego

1. New tasks and models: Vision Transformer (ViT) architectures, Large Language Models (LLMs), Stable Diffusion network, etc.
2. Added tests checking the performance of quantized INT16 inference.
3. LiteRT (TFLite) runtime updated to version 2.17.
4. Updated Qualcomm QNN, MediaTek Neuron, TFLite NNAPI, GPU and Hexagon NN delegates.
5. Added Arm NN delegate for AI inference acceleration on Mali GPUs.
6. The total number of tests increased to 83.