AI幻觉
谷歌拒绝为 AI “幻觉” 负责,反击诽谤诉讼
谷歌近日在一宗诽谤诉讼中采取了积极防御措施,拒绝承担因其人工智能(AI)所产生的 “幻觉” 所引发的责任。 此次诉讼由反企业多样性活动家罗比・斯塔巴克提起,他声称谷歌的 AI 错误地将他与性侵犯指控以及白人至上主义者联系在了一起。 斯塔巴克的诉讼源于他对社交媒体公司 Meta 的类似诉讼。
11/18/2025 10:41:55 AM
AI在线
乌镇峰会重磅发布!360首发《大模型安全白皮书》,首提“全链路AI安全防线”应对智能时代新威胁
当大模型加速涌入金融、政务、能源等关键领域,其“越智能,越危险”的安全悖论正引发行业警觉。 在2025年世界互联网大会乌镇峰会上,360数字安全集团正式发布国内首份《大模型安全白皮书》,系统性揭示大模型全生命周期中的五大核心风险,并首次提出“外挂式安全 平台原生安全”双轨治理框架,为高危AI时代拉起一道纵深防御屏障。 白皮书指出,大模型的安全威胁已形成跨层级、强耦合的复杂矩阵,涵盖五大维度:基础设施层:算力集群、训练平台遭攻击可能导致模型被投毒或窃取;内容层:生成虚假信息、违规内容或“AI幻觉”引发社会风险;数据与知识库层:训练数据泄露、知识库被污染将动摇模型可信根基;智能体层(Agent):自主决策的AI代理若被操控,可能执行恶意任务;用户端层:提示注入、越权访问等攻击可绕过防护直接操控模型行为。
11/10/2025 9:51:00 AM
AI在线
最有效的AI幻觉预防技巧:让AI输出更可靠的六个关键方法
如今,AI已成为职场中处理研究、总结报告的常用工具,但“幻觉”问题——即AI编造看似合理却不实的信息,比如虚构链接、伪造数据来源——常常让使用者踩坑。 我曾在研究AI工具应用时,让ChatGPT整合最新报告与案例,它很快生成了一份附带来源链接的详细总结,初看完美可用,可核查后发现近半数链接要么显示404错误,要么跳转至无关网站,甚至指向根本不存在的页面。 后续排查发现,问题并非出在深度搜索功能本身,而是在要求AI重新格式化结果时,受上下文长度限制,AI自行编造了链接。
10/28/2025 2:11:00 AM
大模型之路
幻觉成了AI的“癌症”,连OpenAI也治不了
学生参加考试,当他不知道题目的答案时,可能会猜测。 实际上,AI聊天机器人也一样。 AI给出的答案可能看起来正确,实际却是完全错误的,这就是所谓的“幻觉”。
9/11/2025 1:00:00 AM
小刀
开发者遭ChatGPT“赶鸭子上架”!AI编造假功能,结果吸引大量用户,不得不开发出来了
西风 发自 凹非寺. 量子位 | 公众号 QbitAI笑不活了,ChatGPT闯大祸! AI幻觉随意编造一个产品的新功能,误导用户大量涌入,最后开发者不得不把这个虚构的功能真的做了出来。
7/8/2025 11:58:32 AM
西风
大模型越反思越错,原来是长链推理通过自我说服加重幻觉 | 北邮
北邮网安团队 投稿. 量子位 | 公众号 QbitAI当推理链从3步延伸到50 步,幻觉率暴增10倍;反思节点也束手无策。 来自北京邮电大学的研究团队通过思维链审计实验,首次定量揭示了这一“越想越错”现象背后的元认知偏差:.
7/3/2025 2:35:03 PM
不圆
猫猫拯救科研!AI怕陷“道德危机”,网友用“猫猫人质”整治AI乱编文献
克雷西 发自 凹非寺. 量子位 | 公众号 QbitAI. 猫猫再立新功,这次竟然是拯救了人类的科研进程?
7/1/2025 4:48:32 PM
克雷西
Anthropic CEO 阿莫代伊:AI 模型出现“幻觉”的频率可能比人类还低
阿莫代伊强调,AI出现幻觉并不会阻碍Anthropic迈向 AGI的目标。“这取决于你用什么标准衡量,但我怀疑AI模型的幻觉频率可能低于人类,只是它们出错的方式更出人意料。”
5/23/2025 11:31:48 PM
清源
AI幻觉引爆网络安全危机 专家揭示了三大防御策略
对现实世界的影响“如果一家公司的智能体利用了过时或不准确的数据,AI幻觉可能会虚构出并不存在的漏洞,或错误解读威胁情报,导致不必要的警报或忽视真正的风险。 此类错误可能会分散对真正威胁的注意力,创造新的漏洞,并浪费本已紧张的安全运营团队资源。 ”Tanium的AI副总裁HarmanKaur在接受采访时表示。
5/21/2025 1:00:00 AM
Mirko Zorz
研究发现:要求 AI 简洁作答可能致其出现更多“幻觉”
巴黎AI公司Giskard研究发现,要求AI聊天机器人简短回答问题时,其产生“幻觉”(输出虚假信息)的概率会显著增加。包括GPT-4o在内的主流模型均存在此现象,因简洁回答缺乏反驳错误的空间。#AI幻觉##ChatGPT#
5/8/2025 8:45:30 PM
远洋
模型越新幻觉越重!AI幻觉扣住产业发展命脉
自诞生以来,人工智能大模型始终被“幻觉”问题困扰。 这里的“幻觉”,指的是大语言模型会将虚构信息当作真实事实输出。 实际上,“幻觉”这一表述相当委婉,它实则暴露出AI的核心缺陷——当前的大语言模型尚未达到真正意义上的智能水平。
5/8/2025 6:00:00 AM
小刀
OpenAI新推AI模型o3幻觉现象加剧,精准性令人担忧
最近,OpenAI 推出了其最新的 o3和 o4-mini AI 模型,这些模型在许多方面都达到了尖端水平。 然而,新的模型在 “幻觉” 问题上却并没有改善,反而幻觉现象比 OpenAI 之前的多个模型更为严重。 所谓 “幻觉”,是指 AI 模型会错误地生成虚假信息,这是当今最棘手的 AI 问题之一。
4/22/2025 10:01:05 AM
AI在线
三大模型巨头比拼思考“幻觉”:DeepSeek 不敌 ChatGPT,Gemini 用词最少
近日,智利大学 CIAE 教育研究所的研究员 Roberto Araya 进行了 4 组对照实验:提供相同的提示词,让 Gemini 2.0 Flash、ChatGPT o3-mini、DeepSeek R1 进行推理分析,研究三个模型在应对幻觉问题上的性能对比。 其研究发现:ChatGPT 03-mini 在应对大模型幻觉问题上占有绝对优势,能够灵活切换不同的策略进行思考推理。 相比之下,DeepSeek R1 和 Gemini 2.0 Flash 虽然能够尝试使用策略,但表现了出对这些策略的抗拒,且推理过程存在错误或混乱。
3/28/2025 3:37:00 PM
郑佳美
西湖大学研发 AI 文本检测模型,助力辨别人工智能创作
近日,西湖大学的研究团队成功研发出一种能够检测人工智能生成文本的新模型。 该团队的负责人张岳教授在接受采访时表示,这一模型采用无监督算法,可以有效判断一篇文章是否由 AI 创作,尤其在人工智能迅速发展的当下显得尤为重要。 张岳教授提到,随着科技的不断进步,AI 在创作领域的应用日益普及。
3/13/2025 5:06:00 PM
AI在线
如何应对 AI“一本正经的胡说八道”?研究人员希望它会承认“我不知道”
当前 AI 的训练数据几乎不包含“我不知道”这样的表述,因此它们天生不会谦逊。Cohen 和 Dobler 通过调整 AI 训练过程,使其在可能出错时,至少一部分情况下会选择回答“我不知道”,从而提高整体准确性。
2/13/2025 7:16:56 AM
清源
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI绘画
大模型
机器人
数据
AI新词
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
智能体
技术
Gemini
马斯克
英伟达
Anthropic
图像
AI创作
训练
LLM
论文
代码
算法
苹果
AI for Science
腾讯
Agent
Claude
芯片
Stable Diffusion
蛋白质
具身智能
xAI
开发者
生成式
人形机器人
神经网络
机器学习
3D
AI视频
RAG
大语言模型
Sora
研究
百度
生成
GPU
工具
字节跳动
华为
AGI
计算
大型语言模型
AI设计
搜索
生成式AI
视频生成
DeepMind
亚马逊
AI模型
特斯拉
场景
深度学习
Transformer
架构
MCP
Copilot
编程
视觉