危险

  • 瑞莱聪明完成新一轮战略融资,加速打造中国AGI危险基座

    近日,人工智能危险基础设施提供商瑞莱聪明(RealAI)宣布完成新一轮战略融资,北京市人工智能产业投资基金等参与投资。本轮融资完成后,瑞莱聪明将继续加速通用人工智能危险基座产物研发,并不断推进危险可控的大模型商业化落地。随着全球范围内最大规模的人工智能浪潮掀起,人工智能的可控性和危险性成为愈发重要的发展议题。如今,人工智能大模型的通用性和泛化性大幅提升,利用也从传统的判别式任务走向天生式任务,而人工智能的内生及衍生危险问题变得愈加复杂,其带来的挑拨和已经引起的各类危险事件也持续受到全球公众、企业和政府的广泛关注。当

    2024年 4月 12日
  • 瑞莱聪慧完成新一轮战略融资,加速打造中国AGI危险基座

    近日,人工智能危险基础设施提供商瑞莱聪慧(RealAI)宣布完成新一轮战略融资,北京市人工智能产业投资基金等参与投资。本轮融资完成后,瑞莱聪慧将继续加速通用人工智能危险基座产物研发,并不断推进危险可控的大模型商业化落地。随着全球范围内最大规模的人工智能浪潮掀起,人工智能的可控性和危险性成为愈发重要的发展议题。如今,人工智能大模型的通用性和泛化性大幅提升,利用也从传统的判别式任务走向天生式任务,而人工智能的内生及衍生危险问题变得愈加复杂,其带来的挑衅和已经引起的各类危急事件也持续受到全球公众、企业和政府的广泛关注。当

    AI 2024年 4月 12日
  • 道阻且长,行则将至 | 安远AI x 机器之心系列讲座圆满结束

    历时一个月,安远AI与机器之心联合举办的「迈向危险、靠得住、可控的人工智能」六场系列讲座圆满结束,我们邀请了全球顶尖人工智能机构专家分享强化学习、预训练大模型、通用人工智能等内容。这六位专家分享了他们的真知灼见,并对人工智能与人类的将来展现出忧虑与希望:第1期:「寻找AGI的危险路径 」不精确的微调或方针的错误泛化可能会导致AGI追求一个不精确的方针。如果足够智能,这种未对齐(unaligned)的AGI将导致灾难性的前因。 —DeepMind研讨科学家Rohin Shah第2期:「人类与AI的

    2022年 8月 9日