资讯列表
Secretary自媒体神器发布,自动化社交媒体分析赋能多场景应用
一款名为Secretary的AI驱动自媒体工具正式亮相,专注于自动化跟踪与分析社交媒体内容,并将结果以Markdown格式推送至微信平台。 据AIbase了解,Secretary支持Truth Social和Twitter(现为X)两大平台,允许用户为不同账号设置定制化分析主题(如财经、政治、科技),并实现多团队定向推送。 该工具的发布在开发者与企业用户中引发广泛关注,已通过GitHub开源。
AI入侵学术圈,超700篇顶刊论文暴雷!科学侦探揭秘真相,登Nature头版
「截至我最后的知识更新」,「重新生成响应」,「作为一个AI语言模型」......这些短句,已经成为顶刊论文中的常态。 2024年,一篇发表在Radiology Case Reports上论文,因文中出现了「我是一个AI语言模型」,直接被撤稿。 令人震惊的是,这句话不仅没有引起作者注意,更逃过了编辑、审稿人、排版人的审查。
百度发布高说服力数字人,可在电商直播领域带来超越真人体验
百度在Create大会上发布高说服力数字人,声形超拟真、互动灵活,能在电商直播等领域带来超越真人的体验。背后依托百度慧播星的“剧本生成”能力和“AI大脑”,实现高度融合的脚本与动作,并实时调整直播策略。#百度数字人# #电商直播#
百度发布文心大模型 4.5 Turbo / X1 Turbo:主打多模态、强推理、低成本
其对比文心 4.5,速度更快、价格下降 80%,每百万 token 的输入价格仅为 0.8 元,输出价格 3.2 元,仅为 DeepSeek-V3 的 40%。
刚刚,OpenAI推出「轻量级」Deep Research,免费用户也能薅羊毛!
刚刚,OpenAI 宣布推出「轻量级」版本的 Deep Research,免费用户也可以使用! 轻量级版本由 OpenAI 的 o4-mini 模型提供支持,而之前的 Deep Research 使用的是更强大的 o3 模型(或其变体)。 OpenAI 表示,虽然响应通常会更简短,但仍能够维持您所期待的深度和质量。
揭秘 RAG:为什么说它是让大语言模型(LLM)更聪明的秘密武器?
现在人工智能(AI)很火,尤其是像 ChatGPT 这样的大语言模型(LLM),它们能聊天、写文章、写代码,感觉无所不能。 但有时候,它们也会犯一些小错误,比如信息过时了,或者一本正经地胡说八道(这叫“幻觉”),或者你问它一些你们公司内部的事情,它就完全不知道了。 为了解决这些问题,科学家们想出了一个聪明的办法,叫做RAG。
报道称苹果重组管理层,AI 与机器人项目分离
有媒体报道苹果公司对其管理层进行了一次重要的调整,尤其是在人工智能(AI)和机器人项目方面。 根据彭博社的消息,苹果的人工智能负责人约翰・贾南德雷亚(John Giannandrea)将不再负责公司秘密的机器人部门,而是将重心放在人工智能的开发上。 这一变动标志着苹果在优化内部结构、提升 AI 项目推进效率方面迈出了重要一步。
Adobe的AI图像生成工具Firefly将发布iOS和安卓版
在最新的动态中,Adobe 公司宣布将推出其 AI 图像生成工具 Firefly 的移动版本,旨在与 OpenAI 进行更为激烈的竞争。 这一消息在伦敦的 MAX 创意大会上得到正式发布,Adobe 表示 Firefly 的移动应用程序将很快上线,支持 iOS 和安卓平台,但具体的发布日期尚未确定。 Adobe Firefly 的副总裁 Alexandru Costin 在接受 CNBC 采访时指出,创意工作者在移动中常常会激发灵感,而 Firefly 的移动版本正是为了成为用户随时随地的 “创意伙伴”。
警惕 AI 扩张!十年内或吞噬巨量电力,成本飙升至数千亿美元
近日,一项由乔治城大学、Epoch AI 和兰德公司研究人员进行的新研究警告称,如果当前趋势持续,用于训练和运行人工智能的数据中心将在未来十年内面临爆炸式增长,其芯片数量可能达到数百万个,耗资数千亿美元,并需要相当于大型城市电网的电力供应。 该研究分析了2019年至今全球500多个 AI 数据中心项目的数据,揭示了惊人的增长轨迹。 尽管数据中心的计算性能每年增长超过一倍,但其电力需求和资本支出也在同步攀升。
谷歌研究显示:利用AI每年可为员工节省122 小时的工作时间
近日,谷歌发布了一份试点报告,指出如果员工在处理行政任务时使用人工智能(AI),每年可以节省超过122小时的工作时间。 根据这份报告,若企业能够为员工提供几小时的基础培训,不仅可以迅速提升员工对技术的掌握程度,还有可能促进整体经济增长。 报告中的分析显示,借助 AI 的潜力,英国的经济增长有望增加多达4000亿英镑,约合3.88万亿元人民币。
再也不用愁画架构图了,AI帮你画
作为技术人,你一定有过这样的经历:项目文档需要一张专业的架构图,你打开draw.io或Visio,从一个空白画布开始,拖拽组件、调整布局、设置样式...一张像样的架构图往往需要耗费数小时。 画架构图一直是我最头疼的事情,不仅公司项目,我做的一些开源项目也需要画架构图,画的崩溃时我就想到,现在代码都可以通过AI从零生成,为什么还要手动绘制架构图? 通过我的实践发现,Claude在生成draw.io格式的XML架构图方面表现尤为出色——只需描述你的系统,它就能生成格式规范、结构合理的draw.io架构图,导入后即可直接使用或微调,将数小时的工作压缩至几分钟内完成。
我的小网站被"薅秃"了,用 Trae 五 分钟给网站增加日志功能,揪出爬虫!
最近我发现自己用 Express 搭建的网站突然响应变慢,服务器负载莫名其妙地升高。 一开始我还以为是代码优化问题,但看了几天后隐约感觉不对劲——流量突然暴增,但 uv 并没有明显增长。 这种情况显然是遭遇了异常访问,要么是人为高频刷新,要么是爬虫抓取。
RL真让大模型更会推理?清华新研究:其能力边界或仍被基座「锁死」
近年来,RLVR(可验证奖励的强化学习)训练大模型在数学、代码等各项任务中表现惊艳,大模型的推理能力快速提升,强化学习因而被视为重要的推手。 然而,其中直指核心的重要问题却悬而未决:强化学习真的能让大模型获得超越基础模型的新推理能力吗? 清华大学LeapLab团队联合上海交通大学开展的最新实证研究,通过实验现象揭示了一个值得关注的问题:当前的 RLVR 方法似乎尚未突破基座模型的能力上限。
无需数据标注!测试时强化学习,模型数学能力暴增 | 清华&上海AI Lab
无需数据标注,在测试时做强化学习,模型数学能力暴增159%! 清华和上海AI Lab周伯文团队用这样的方法,对模型进行了强化——结果模型在多个数据集上的成绩均大幅提升,尤其是Qwen-2.5-Math-7B,它做AIME 2024竞赛题的成绩直接提高了159%。 实验过程中,强化学习的数据均由被训练的模型自身生成。
机器人也会挤牙膏?ManipTrans:高效迁移人类双手操作技能至灵巧手
研究团队由来自北京通用人工智能研究院(BIGAI)、清华大学和北京大学的跨专业研究者组成,致力于具身智能领域的前沿研究。 团队成员在开发高效、智能的通用机器人技术,特别是机械灵巧手操作方面,拥有丰富的研究经验。 一作为北京通用人工智能研究院研究员李恺林,其它作者为清华大学博士生李浦豪、北京通用人工智能研究院研究员刘腾宇、北京大学博士生李宇飏;通讯作者为北京通用人工智能研究院研究员黄思远。
北大团队引领3D生成与对齐革新:OctGPT打破扩散模型垄断
近年来,智能三维形状生成(3D AIGC)技术迅速崛起,正成为推动数字内容创作革新的关键力量,特别是在游戏、影视、虚拟现实和工业设计等领域表现出巨大的应用潜力。 随着技术的不断进步,三维内容的生成质量与效率持续提升,成为业界与学界广泛关注的焦点。 最近,北京大学陈宝权教授带领团队在三维形状生成和三维数据对齐方面取得新的突破。
TTS和TTT已过时?TTRL横空出世,推理模型摆脱「标注数据」依赖,性能暴涨
在大语言模型(LLMs)竞争日趋白热化的今天,「推理能力」已成为评判模型优劣的关键指标。 OpenAI 的 o 系列、Anthropic 的 Claude 和 DeepSeek-R1 等模型的惊艳表现背后,测试时缩放(TTS)技术功不可没。 测试时缩放(TTS,Test-Time Scaling)是一种提升大语言模型推理能力的新兴策略,通过在测试阶段优化推理过程(如多数投票、蒙特卡洛树搜索等)提升大型语言模型(LLMs)的性能,而无需修改模型参数。
UniToken:多模态AI的“全能选手”,一次编码搞定图文理解与图像生成!
首次在统一框架内实现理解与生成的“双优表现”,打破了多模态统一建模的僵局! 复旦大学和美团的研究者们提出了UniToken——一种创新的统一视觉编码方案,在一个框架内兼顾了图文理解与图像生成任务,并在多个权威评测中取得了领先的性能表现。 UniToken通过融合连续和离散视觉表征,有效缓解了以往方法中“任务干扰”和“表示割裂”的问题,为多模态统一建模提供了新的范式。