AI Benchmark

4.4
1540条评价
10万+
次下载
内容分级
适合所有人
屏幕截图图片
屏幕截图图片
屏幕截图图片
屏幕截图图片
屏幕截图图片
屏幕截图图片
屏幕截图图片
屏幕截图图片

关于此应用

神经图像生成、人脸识别、图像分类、问答...

您的智能手机是否能够运行最新的深度神经网络来执行这些以及许多其他基于人工智能的任务?有专用的AI芯片吗?够快吗?运行AI Benchmark,专业评估其AI性能!

当前手机排名:http://ai-benchmark.com/ranking

AI Benchmark 衡量多个关键 AI、计算机视觉和 NLP 模型的速度、准确性、功耗和内存要求。测试的解决方案包括图像分类和人脸识别方法、执行神经图像和文本生成的人工智能模型、用于图像/视频超分辨率和照片增强的神经网络,以及用于自动驾驶系统和智能手机的实时人工智能解决方案。时间深度估计和语义图像分割。算法输出的可视化允许以图形方式评估其结果,并了解各个人工智能领域的当前最新技术。

AI Benchmark 总共包含 83 项测试和 30 个部分,如下所示:

第 1 节:分类,MobileNet-V3
第 2 节:分类,Inception-V3
第三节 人脸识别,Swin Transformer
第 4 节:分类,EfficientNet-B4
第 5 节. 分类,MobileViT-V2
第 6/7 节。并行模型执行,8 x Inception-V3
第 8 节. 对象跟踪,YOLO-V8
第 9 节. 光学字符识别,ViT 变压器
第 10 节. 语义分割,DeepLabV3+
第 11 节:并行分割,2 x DeepLabV3+
第 12 节:语义分割,分割任何内容
第 13 节:照片去模糊,IMDN
第 14 节. 图像超分辨率,ESRGAN
第 15 节:图像超分辨率,SRGAN
第 16 节:图像去噪,U-Net
第 17 节. 深度估计,MV3-深度
第 18 节:深度估计,MiDaS 3.1
第 19/20 节。图像增强,DPED
第 21 节. 学习相机 ISP、MicroISP
第 22 节. 散景效果渲染,PyNET-V2 Mobile
第 23 节:全高清视频超分辨率,XLSR
第 24/25 节。 4K 视频超分辨率、VideoSR
第 26 节:问答,MobileBERT
第 27 节. 神经文本生成,Llama2
第 28 节. 神经文本生成,GPT2
第 29 节 神经图像生成,稳定扩散 V1.5
第 30 节:内存限制,ResNet

除此之外,人们还可以在 PRO 模式下加载和测试自己的 TensorFlow Lite 深度学习模型。

测试的详细描述可以在这里找到:http://ai-benchmark.com/tests.html

注:所有具有专用 NPU 和 AI 加速器的移动 SoC 均支持硬件加速,包括 Qualcomm Snapdragon、MediaTek Dimensity / Helio、Google Tensor、HiSilicon Kirin、Samsung Exynos 和 UNISOC Tiger 芯片组。从 AI Benchmark v4 开始,还可以在旧设备上在设置中启用基于 GPU 的 AI 加速(“加速”->“启用 GPU 加速”/“Arm NN”,需要 OpenGL ES-3.0+)。
更新日期
2024年9月25日

数据安全

安全始于了解开发者如何收集和分享数据。数据隐私保护和安全措施可能会因您的使用情况、所在地区和用户年龄而异。此类信息由开发者提供,可能会随时间更新。
不与第三方分享任何数据
详细了解开发者如何声明数据分享事宜
不会收集任何数据
详细了解开发者如何声明数据收集事宜

评分和评价

4.4
1480条评价
Yuhao Zhang
2020年11月1日
HTC U Ultra 3382分 Pixel 4 49320分,从821到855真的是提升巨大!
7 人认为该评价有用
您认为这条评价有帮助吗?
Google 用户
2019年1月10日
Nvidia太吃亏,Tegra系列应该用TensorRT推理,而不是用Tensorflow
9 人认为该评价有用
您认为这条评价有帮助吗?
王向方
2020年8月19日
做公正的评测软体,而不是作弊的货色。
您认为这条评价有帮助吗?

新功能

1. New tasks and models: Vision Transformer (ViT) architectures, Large Language Models (LLMs), Stable Diffusion network, etc.
2. Added tests checking the performance of quantized INT16 inference.
3. LiteRT (TFLite) runtime updated to version 2.17.
4. Updated Qualcomm QNN, MediaTek Neuron, TFLite NNAPI, GPU and Hexagon NN delegates.
5. Added Arm NN delegate for AI inference acceleration on Mali GPUs.
6. The total number of tests increased to 83.