Deepseek
-
LingoEDU:结构化预处理新突破,让大模型生成可溯源,DeepSeek准确率飙升51%
LingoEDU:结构化预处理新突破,让大模型生成可溯源,DeepSeek准确率飙升51% 一种名为LingoEDU(简称EDU,即基本话语单元技术)的新方法,能够零成本降低大模型幻觉,让DeepSeek的准确率相对提升51%。 LingoEDU是一个在大模型正式生成前执行的专用「预处理」模型。其核心在于对输入文本进行精准切分,为每一个最小信息单元(EDU)…
-
DeepSeek研究员陈德里乌镇首秀:从AI乐观到社会隐忧的深度思辨
在浙江乌镇举行的世界互联网大会上,备受瞩目的「杭州六小龙」首次同台亮相。阿里云创始人王坚院士亲自主持,宇树创始人及CEO王兴兴、强脑科技创始人及CEO韩璧丞、群核科技创始人及董事长黄晓煌、游戏科学创始人及CEO、《黑神话:悟空》制作人冯骥、云深处科技创始人及CEO朱秋国等悉数落座。 然而,在「杭州六小龙」中最为引人注目的DeepSeek,其创始人及CEO梁文…
-
GPT-5被比作o3.1?OpenAI首次深度解析“思考型AI”:强化学习与预训练双轨并行,才是实现AGI的关键路径
OpenAI研究副总裁Jerry Tworek首次详解GPT-5,称其本质是o3模型的升级版(o3.1)。他指出,强化学习与预训练结合是AGI发展的核心路径,未来将打造更自主、思考时间更长的推理模型。Jerry还认可DeepSeek的GRPO算法推动美国RL研究,并透露OpenAI内部高度自主、信息透明,员工甚至自费使用ChatGPT。
-
DeepSeek开源视觉压缩模型引爆业界,单GPU实现高效长文本处理
DeepSeek-OCR创新性地提出“视觉压缩文本”范式,通过将文本信息转化为图像表征,有效解决大模型处理长文本时的算力瓶颈。该3B参数模型采用DeepEncoder编码器和DeepSeek3B-MoE-A570M解码器双组件架构,实现用少量视觉token高效表示海量文本内容。实验表明,在10倍压缩率下解码准确率达97%,20倍压缩率仍保持60%准确率。仅需单张A100 GPU即可每日生成超20万页训练数据,在OmniDocBench基准上以最少token数达到SOTA性能。这一突破性方法不仅被业界誉为“AI的JPEG时刻”,更为统一视觉与语言处理、构建类人记忆机制提供了新路径。
-
DeepSeek 本地化部署:打造专属智能助手
本文详细介绍了如何在本地使用Ollama框架部署DeepSeek模型,涵盖硬件要求、安装步骤、界面搭建及注意事项,帮助用户打造安全私密的个人智能助手。
-
【重磅爆料】AI 圈又要热闹了!多款大模型即将扎堆上线
Claude 4.5与Gemini 3即将发布,但焦点在DeepSeek。其V3.2版本疑似官方预热,而十月将至的V4版本则被曝将实现1M上下文长度、GRPO Turbo多步思考及更高推理效率等重大升级。
-
DeepSeek爆火背后的安全隐忧:从模型下载到部署运营的全链路风险剖析
近几个月,国产开源大模型DeepSeek凭借“小参数、高性能”的显著优势迅速席卷市场,引发了企业私有化部署需求的激增。然而,在这股AI应用热潮的背后,却暗藏着不容忽视的安全风险。最新数据显示,高达88.9%的企业在部署AI服务器时未采取任何基础安全措施,而像Ollama这类默认未启用安全认证的流行框架,更使得企业服务器如同“大门敞开”,暴露于多重威胁之下。本…