今日AI新闻焦点:OpenAI完成史上最大规模私人融资,估值突破7300亿美元;Anthropic坚决拒绝将AI用于军事用途,赢得业界广泛支持;支付巨头Block为全面转向AI工具裁员40%,预示着AI对就业市场的深远影响;谷歌发布新一代AI图像模型Nano Banana 2,Perplexity推出创新AI智能体(Agent)协调器“Computer”;同时,Lilly制药启动全球最强AI工厂加速药物研发,而AI在医疗诊断上的局限性以及中国AI聊天机器人的审查机制也引发了对AI伦理与安全性的深刻讨论。
礼来药业启动全球最强 AI 工厂:NVIDIA DGX SuperPOD 驱动药物研发
礼来公司近期推出全球首个完全由药企拥有并运营的 NVIDIA DGX SuperPOD AI 工厂——LillyPod,搭载 DGX B300 系统。此举旨在利用先进 AI 算力加速药物发现和开发,提高精准度和规模效率,有望突破传统研发瓶颈,为医疗领域带来革命性进展,显著缩短新药上市周期。
OpenAI 完成史上最大规模私人融资之一,估值高达 7300 亿美元
OpenAI 在一轮私人融资中成功筹集 1100 亿美元,其中亚马逊投资 500 亿美元,NVIDIA 和软银各投资 300 亿美元,公司估值达到 7300 亿美元。这笔巨额资金将进一步巩固 OpenAI 在人工智能领域的领导地位,加速其技术研发与市场扩张,对全球 AI 产业格局产生深远影响,预示着AI投资热潮的持续。
Anthropic 坚守 AI 军事应用伦理底线,获 Google 与 OpenAI 员工声援
面对美国国防部的要求,人工智能公司 Anthropic 首席执行官 Dario Amodei 坚决表示,拒绝无限制地将公司 AI 系统用于大规模国内监控或全自主武器。此立场获得 Google 和 OpenAI 员工的公开信支持,凸显了科技界对 AI 伦理和负责任开发的高度关注,为 AI 军事化划定界限,引发对AI应用边界的深入思考。
Block 大幅裁员 40% 全面押注 AI,CEO 预言更多企业将跟进
支付巨头 Block 公司宣布裁员 40% 的员工,以全面转向人工智能工具。首席执行官 Jack Dorsey 认为大多数公司尚未意识到 AI 将如何影响就业,并预言其公司将是首批通过 AI 显著提升效率并重塑劳动力的企业之一。此举引发对 AI 时代就业市场剧变和企业战略调整的广泛讨论,加速了企业对AI转型的步伐。
Perplexity 推出“Computer”:一款可分配任务给其他 AI 智能体(Agent)的 AI 协调器
Perplexity 公司发布了名为“Computer”的新型人工智能智能体(Agent),它能够将复杂任务分解并分配给其他 AI 智能体(Agent)执行。这一创新设计旨在实现更高级别的 AI 任务编排和自动化,提供更安全、更规范的 OpenClaw 概念版本,预示着 AI 智能体(Agent)协作新范式的到来,提升AI处理复杂问题的能力。
谷歌发布新一代 AI 图像生成模型 Nano Banana 2,将整合至 Gemini
谷歌正式推出其最新一代 AI 图像生成模型 Nano Banana 2,该模型现已整合到 Gemini 中。Nano Banana 2 被描述为一款强大的 AI 照片编辑器,能够以闪电般的速度生成专业级图像并突破现实限制。此次更新旨在提升用户在图像创作和编辑方面的体验,进一步推动 AI 艺术与设计领域发展,有望降低图像创作门槛。
AI 正在重塑全球顶尖围棋选手的思维方式
自 Google DeepMind 的 AlphaGo 震惊世界以来,人工智能不仅击败了人类围棋大师,更深刻地改变了顶尖围棋选手的训练和思考模式。通过与 AI 对弈和研究 AI 棋谱,人类棋手发现了新的策略和思维路径,推动了围棋理论的演进,展示了 AI 如何作为工具提升人类认知与技能,而非仅仅是取代。
斯坦福与普林斯顿研究揭示中国 AI 聊天机器人的自我审查机制
斯坦福大学和普林斯顿大学的研究人员发现,与西方同行相比,中国的人工智能模型在处理敏感政治问题时,更倾向于回避或给出不准确的答案。这项研究揭示了文化、法规及审查制度如何影响 AI 行为,并引发了关于全球 AI 系统信息自由与偏见的深刻讨论,强调了AI模型在不同文化背景下的适应性挑战。
开源项目 IronCurtain 推出新型 AI 智能体(Agent),旨在确保其行为可控不“失控”
开源项目 IronCurtain 推出了一款新型 AI 智能体(Agent),采用独特方法来确保其安全性和行为受限,防止出现“失控”情况。该项目旨在解决 AI 智能体(Agent)在自动化数字生活时可能带来的潜在风险,为 AI 助手的安全部署提供解决方案,强调了 AI 系统透明度与可控性的重要性,推动AI安全研究进展。
专家警示:ChatGPT 健康应用在识别医疗紧急情况上表现不佳
《自然》杂志发表的研究和专家警告指出,ChatGPT 健康应用在结构化测试中,未能准确识别医疗紧急情况并给出正确的分类建议。尽管 AI 在医疗领域潜力巨大,但此项发现凸显了在部署 AI 诊断工具前,对其准确性、可靠性和安全性进行严格评估的必要性,以避免潜在的患者安全风险,呼吁行业对AI医疗审慎应用。
未经允许不得转载:主机格调 » 主机格调AI日报(26.02.27):OpenAI巨额融资 + Anthropic坚守底线 + Google发布新模型
主机格调



