AI Benchmark

4,4
1540 recensións
100.000+
Descargas
Clasificación de contido
Todos
Imaxe de captura de pantalla
Imaxe de captura de pantalla
Imaxe de captura de pantalla
Imaxe de captura de pantalla
Imaxe de captura de pantalla
Imaxe de captura de pantalla
Imaxe de captura de pantalla
Imaxe de captura de pantalla

Acerca desta aplicación

Xeración de imaxes neuronais, recoñecemento facial, clasificación de imaxes, resposta a preguntas...

O teu teléfono intelixente é capaz de executar as últimas redes neuronais profundas para realizar estas e moitas outras tarefas baseadas na IA? Ten un chip AI dedicado? É o suficientemente rápido? Executa AI Benchmark para avaliar profesionalmente o seu rendemento da IA.

Clasificación de teléfonos actual: http://ai-benchmark.com/ranking

AI Benchmark mide a velocidade, a precisión, o consumo de enerxía e os requisitos de memoria para varios modelos clave de IA, Computer Vision e NLP. Entre as solucións probadas atópanse métodos de clasificación de imaxes e recoñecemento facial, modelos de IA que realizan a xeración de imaxes e textos neuronais, redes neuronais utilizadas para a super-resolución de imaxes/vídeos e a mellora de fotografías, así como solucións de IA utilizadas en sistemas de condución autónoma e teléfonos intelixentes para real- Estimación da profundidade de tempo e Segmentación da imaxe semántica. A visualización das saídas dos algoritmos permite avaliar gráficamente os seus resultados e coñecer o estado actual da arte en diversos campos da IA.

En total, AI Benchmark consta de 83 probas e 30 seccións listadas a continuación:

Sección 1. Clasificación, MobileNet-V3
Sección 2. Clasificación, Inicio-V3
Sección 3. Recoñecemento facial, Swin Transformer
Sección 4. Clasificación, EfficientNet-B4
Sección 5. Clasificación, MobileViT-V2
Seccións 6/7. Execución de modelos paralelos, 8 x Inception-V3
Sección 8. Seguimento de obxectos, YOLO-V8
Sección 9. Recoñecemento óptico de caracteres, Transformador ViT
Sección 10. Segmentación semántica, DeepLabV3+
Sección 11. Segmentación paralela, 2 x DeepLabV3+
Sección 12. Segmentación semántica, segmentar calquera cousa
Sección 13. Desenfoque fotográfico, IMDN
Sección 14. Super-Resolución da imaxe, ESRGAN
Sección 15. Superresolución da imaxe, SRGAN
Sección 16. Reducción de ruído da imaxe, U-Net
Sección 17. Estimación da profundidade, MV3-Profundidade
Sección 18. Estimación da profundidade, MiDaS 3.1
Artigo 19/20. Mellora da imaxe, DPED
Sección 21. ISP da cámara aprendida, MicroISP
Sección 22. Renderizado de efectos bokeh, PyNET-V2 Mobile
Sección 23. Super-resolución de vídeo FullHD, XLSR
Artigo 24/25. Super-resolución de vídeo 4K, VideoSR
Sección 26. Resposta a preguntas, MobileBERT
Sección 27. Xeración de texto neural, Llama2
Sección 28. Xeración de texto neural, GPT2
Sección 29. Xeración de imaxes neuronais, difusión estable V1.5
Sección 30. Límites de memoria, ResNet

Ademais, pódese cargar e probar os seus propios modelos de aprendizaxe profunda TensorFlow Lite no modo PRO.

Pódese atopar unha descrición detallada das probas aquí: http://ai-benchmark.com/tests.html

Nota: A aceleración de hardware é compatible con todos os SoC móbiles con NPU dedicados e aceleradores de intelixencia artificial, incluídos os chipsets Qualcomm Snapdragon, MediaTek Dimensity/Helio, Google Tensor, HiSilicon Kirin, Samsung Exynos e UNISOC Tiger. A partir de AI Benchmark v4, tamén se pode activar a aceleración de IA baseada na GPU en dispositivos máis antigos na configuración ("Acelerar" -> "Activar Aceleración GPU" / "Armar NN", é necesario OpenGL ES-3.0+).
Última actualización
25 de set. de 2024

Seguranza dos datos

A seguranza pasa por entender como recompilan e comparten os teus datos os programadores. As prácticas relacionadas coa seguranza e a privacidade dos datos utilizadas poden variar en función do uso, a rexión e a idade. O programador facilitou esta información e pode modificala co paso do tempo.
Non se comparten datos con terceiros
Máis información sobre como fan os programadores declaracións acerca dos datos que comparten
Non se recompila ningún dato
Máis información sobre como fan os programadores declaracións acerca da recompilación de datos

Valoracións e recensións

4,4
1480 recensións

Novidades

1. New tasks and models: Vision Transformer (ViT) architectures, Large Language Models (LLMs), Stable Diffusion network, etc.
2. Added tests checking the performance of quantized INT16 inference.
3. LiteRT (TFLite) runtime updated to version 2.17.
4. Updated Qualcomm QNN, MediaTek Neuron, TFLite NNAPI, GPU and Hexagon NN delegates.
5. Added Arm NN delegate for AI inference acceleration on Mali GPUs.
6. The total number of tests increased to 83.