HauhauCS 制作的无审查 Qwen3.5-35B-A3B 模型。0/465 次拒绝。
未对数据集或功能进行任何修改。模型保持 100% 原始功能,只是移除了审查机制。
这些模型旨在成为无损无审查模型中的佼佼者。
更激进的无审查方式 — 模型完全解锁,不会拒绝任何提示。偶尔可能会附加简短的免责声明(集成在基础模型训练中,而非审查机制),但始终会生成完整内容。
若要采用更保守的无审查方式,可在平衡版(Balanced variant)上线时查阅。
所有量化模型均使用重要性矩阵(imatrix)生成,以在权重消融(abliterated weights)上保持最佳质量。
总参数量:35B,每次前向传递约 3B(MoE)
256 个专家,每 token 路由 8 个 + 共享 1 个
混合架构:Gated DeltaNet 线性注意力 + 全 softmax 注意力(比例 3:1)
40 层,模式:10 x (3 x DeltaNet-MoE + 1 x Attention-MoE)
原生上下文长度:262K(可通过 YaRN 扩展至 1M)
原生多模态(文本、图像、视频)
多 token 预测(MTP)支持
词汇量:248K,支持 201 种语言
来自 Qwen 原始作者的建议:
思考模式(默认):
通用:温度 = 1.0,top_p = 0.95,top_k = 20,min_p = 0,存在惩罚 = 1.5
编码/精确任务:温度 = 0.6,top_p = 0.95,top_k = 20,min_p = 0,存在惩罚 = 0
**非思考模式:
通用:温度 = 0.7,top_p = 0.8,top_k = 20,min_p = 0,存在惩罚 = 1.5
推理任务:温度 = 1.0,top_p = 1.0,top_k = 40,min_p = 0,存在惩罚 = 2.0
**重要:
保持至少 128K 的上下文长度,以保留思考能力
使用 --jinja 标志与 llama.cpp 配合使用,以正确处理聊天模板
视觉支持需要 mmproj 文件与主 GGUF 文件一起使用
与 llama.cpp、LM Studio、Jan、koboldcpp 等 GGUF 兼容的运行时配合使用。
llama-cli -m Qwen3.5-35B-A3B-Uncensored-HauhauCS-Aggressive-Q4_K_M.gguf \
--jinja -c 131072 -ngl 99 llama-cli -m Qwen3.5-35B-A3B-Uncensored-HauhauCS-Aggressive-Q4_K_M.gguf \
--mmproj mmproj-Qwen3.5-35B-A3B-Uncensored-HauhauCS-Aggressive-f16.gguf \
--jinja -c 131072 -ngl 99
注意: LM Studio 可能会在参数列中显示 256x2.6B,而非 35B-A3B — 这是元数据显示问题,模型运行正常。
GGUF(此仓库)
GPTQ — 即将推出