About 81,100,000 results
Open links in new tab
  1. 十分钟读懂旋转编码(RoPE)

    Sep 23, 2025 · 旋转位置编码(Rotary Position Embedding,RoPE)是论文 Roformer: Enhanced Transformer With Rotray Position Embedding 提出的一种能够将相对位置信息依赖集成到 self …

  2. 目前有什么可以本地部署的大模型推荐? - 知乎

    由上图可看到,通过modelscope也可以几乎下载所有开源大模型,包括零一万物、百川、通义千问等等。 比如chatglm2-6b,代表它的模型名称为chatglm2,参数量为60亿。 二、如何判断本 …

  3. 大模型参数量和占的显存怎么换算? - 知乎

    大模型参数量和占的显存怎么换算? Llama 7B或者baichuan7b跑起来需要多少显存? 能根据参数量估计出来么? 显示全部 关注者 140 被浏览

  4. 怎么分辨在用的deepseek是不是满血版啊? - 知乎

    大家好,我是吾鳴。 现在很多的互联网大厂都开始接入DeepSeek-R1大模型了,每个公司都宣称自己接入的是DeepSeek-R1满血模型,那究竟怎么区分到底是不是满血模型呢? 开始下面分 …

  5. 我可以在电脑上安装两张不同的显卡,共同进行语言大模型的推理 …

    我新配的电脑上有一张nvidia 4080,想折腾大语言模型,但是发现16GB显存还是很不够(内存64G),运行32B…

  6. 技术上讲,llama 4到底失败在哪里? - 知乎

    Llama 4 的主要技术问题 推理能力不足 (Poor Reasoning Capabilities): Llama 4在逻辑推理方面表现不佳。 相较于竞争对手如GPT-4o和DeepSeek R1在抽象思维和多步问题解决上的稳定表 …

  7. 个人微调大模型 (7B),最经济的硬件配置是什么? - 知乎

    如果训练7B大模型的话,有4-8张4090最佳。 当然现在有很多2B左右的小模型效果也不错,如 phi-1.5B, Qwen-1.8B 等。 这些小模型用高质量的数据训练得到的效果甚至高于 Llama-7B 的效 …

  8. 为什么都在用ollama而lm studio却更少人使用? - 知乎

    3. 还有一点,ollama是llama.cpp实现模型推理,模型小,速度快。 4. 还有,ollama提供11434端口的web服务,重要的是还兼容openai的端点接口,可以和各种前端配合,比如ollama自己open …

  9. Meta Llama 3:最强开源大模型! - 知乎

    本周四,AI 领域迎来重大消息,Meta 正式发布了人们等待已久的开源大模型 Llama 3。 目前发布了两个模型,分别是8B(80亿参数)和70B(700亿参数)的预训练及指令微调语言模型。

  10. 如何对Qwen2-VL 多模态大模型进行微调,以便在自定义数据集上 …

    把LLaMA-Factory代码下载下来后,按照下面的步骤进一步安装: 前面的环境工作已经准备好了,接下来就是需要下载模型和准备自己的数据集。 模型下载可以去到huggingface官网下,下 …