CanIRun.ai 是一个帮助用户检测本地设备能否运行各类开源AI大模型的在线工具。用户可选择GPU型号、显存、带宽、内存和核心数等硬件配置,系统将自动评估并分级显示哪些模型可流畅运行,涵盖聊天、编程、推理、视觉等多种任务类型。

核心功能: 网站通过浏览器API检测用户硬件配置,提供GPU(Apple M系列、NVIDIA RTX/Quadro、AMD RX等)、显存(2GB-512GB)、内存带宽、RAM和CPU核心数的多维度选择。
模型兼容性分级: 采用六级评分体系——"RUNS GREAT"(运行极佳)、"RUNS WELL"(运行良好)、"DECENT"(尚可)、"TIGHT FIT"(勉强运行)、"BARELY RUNS"(几乎无法运行)、"TOO HEAVY"(无法运行),并标注预估token生成速度。
模型覆盖范围: 支持筛选来自Alibaba、DeepSeek、Meta、Google、OpenAI等20余家机构的模型,按Apache 2.0、MIT、商业许可等许可证类型分类,参数规模从0.8B到480B不等。
当前配置示例: 以Apple M4(16GB显存)、120GB/s带宽、16GB RAM、10核为例,可流畅运行Llama 3.1 8B、Qwen 3.5 9B等轻量模型,但70B以上参数模型均显示"TOO HEAVY"。