AI Benchmark

4.4
1540則評論
10萬+
次下載
內容分級
適合所有人
螢幕截圖圖片
螢幕截圖圖片
螢幕截圖圖片
螢幕截圖圖片
螢幕截圖圖片
螢幕截圖圖片
螢幕截圖圖片
螢幕截圖圖片

關於這個應用程式

神經影像生成、臉部辨識、影像分類、問答...

您的智慧型手機是否能夠運行最新的深度神經網路來執行這些以及許多其他基於人工智慧的任務?有專用的AI晶片嗎?夠快嗎?運行AI Benchmark,專業評估其AI性能!

目前手機排名:http://ai-benchmark.com/ranking

AI Benchmark 衡量多個關鍵 AI、電腦視覺和 NLP 模型的速度、準確性、功耗和記憶體需求。測試的解決方案包括影像分類和人臉辨識方法、執行神經影像和文字生成的人工智慧模型、用於影像/視訊超解析度和照片增強的神經網絡,以及用於自動駕駛系統和智慧型手機的即時人工智慧解決方案。演算法輸出的視覺化允許以圖形方式評估其結果,並了解各個人工智慧領域的當前最新技術。

AI Benchmark 總共包含 83 項測試和 30 個部分,如下所示:

第 1 節:分類,MobileNet-V3
第 2 節:分類,Inception-V3
第三節 人臉識別,Swin Transformer
第 4 節:分類,EfficientNet-B4
第 5 節. 分類,MobileViT-V2
第 6/7 節。並行模型執行,8 x Inception-V3
第 8 節. 對象跟踪,YOLO-V8
第 9 節. 光學字元識別,ViT 變壓器
第 10 節. 語意分割,DeepLabV3+
第 11 節:並行分割,2 x DeepLabV3+
第 12 節:語意分割,分割任何內容
第 13 節:照片去模糊,IMDN
第 14 節. 影像超分辨率,ESRGAN
第 15 節:影像超分辨率,SRGAN
第 16 節:影像去噪,U-Net
第 17 節. 深度估計,MV3-深度
第 18 節:深度估計,MiDaS 3.1
第 19/20 節。影像增強,DPED
第 21 節. 學習相機 ISP、MicroISP
第 22 節. 散景效果渲染,PyNET-V2 Mobile
第 23 節:全高清視訊超分辨率,XLSR
第 24/25 節。 4K 視訊超解析度、VideoSR
第 26 節:問答,MobileBERT
第 27 節. 神經文本生成,Llama2
第 28 節. 神經文本生成,GPT2
第 29 節 神經影像生成,穩定擴散 V1.5
第 30 節:記憶體限制,ResNet

除此之外,人們還可以在 PRO 模式下載入和測試自己的 TensorFlow Lite 深度學習模型。

測試的詳細描述可以在這裡找到:http://ai-benchmark.com/tests.html

附註:所有具有專用 NPU 和 AI 加速器的行動 SoC 均支援硬體加速,包括 Qualcomm Snapdragon、MediaTek Dimensity / Helio、Google Tensor、HiSilicon Kirin、Samsung Exynos 和 UNISOC Tiger 晶片組。從 AI Benchmark v4 開始,還可以在舊設備上在設定中啟用基於 GPU 的 AI 加速(“加速”->“啟用 GPU 加速”/“Arm NN”,需要 OpenGL ES-3.0+)。
更新日期
2024年9月25日

資料安全性

想確保安全,就從瞭解開發人員如何收集與分享資料開始!根據你的使用情形、所在地區及年齡,資料的隱私權和安全性措施可能會有所不同。這項資訊由開發人員提供,可能會隨時間更新。
不會與第三方分享資料
進一步瞭解開發人員如何聲明資料分享事宜
不會收集任何資料
進一步瞭解開發人員如何聲明資料收集事宜

評分和評論

4.4
1480則評論
Albert Cheung
2021年3月12日
為何測試完都不能用上一步鍵離開程式呢?要用中間鍵同強制離開才可以喎!可唔可以加一個離開鍵呢?😅🤔
這則評論對你有幫助嗎?
Google 使用者
2019年11月22日
这个评测应用能够真正调用华为麒麟处理器的NPU呢,很棒,比起其他的评测,客观公正多了
1 位使用者認為這則評論有幫助
這則評論對你有幫助嗎?
無名
2024年8月28日
Please add support API level 35.🆕️
這則評論對你有幫助嗎?

關於此應用程式

1. New tasks and models: Vision Transformer (ViT) architectures, Large Language Models (LLMs), Stable Diffusion network, etc.
2. Added tests checking the performance of quantized INT16 inference.
3. LiteRT (TFLite) runtime updated to version 2.17.
4. Updated Qualcomm QNN, MediaTek Neuron, TFLite NNAPI, GPU and Hexagon NN delegates.
5. Added Arm NN delegate for AI inference acceleration on Mali GPUs.
6. The total number of tests increased to 83.