← 精选
我们正与全球学术界及机构合作推进这项研究,并将逐步扩大面向临床医生的“受信任测试者”计划的覆盖范围,以听取全球医护人员与患者的更多反馈。 了解更多 → https://deepmind.google/blog/ai-co-clinician/?utm_source=x&utm_medium=social&utm_campaign=&utm_content=
2026-04-30 · GoogleDeepMind · 打开 ↗
为确保患者安全始终处于首位,系统采用了双智能体架构。内置的“规划者”会持续监测对话,确保“交流者”智能体始终在安全的临床边界内。
2026-04-30 · GoogleDeepMind · 打开 ↗
“AI co-clinician”是我们全新的研究项目,旨在探索多模态智能体如何更好地辅助医护人员与患者。🩺 以下是我们的进展概览 🧵
2026-04-30 · GoogleDeepMind · 打开 ↗
随着 AI 的不断演进,我们对教育的承诺始终如一。 得益于 @Googleorg 提供的 460 万美元资金,该项目今年将扩展至拉丁美洲,目标是到 2028 年培训 2.4 万名教育工作者,并惠及 125 万名学生。 了解更多 → https://www.raspberrypi.org/blog/experience-ai-reaching-millions-of-young-people-with-ai-literacy/?utm_source=x&utm_medium=social&utm_campaign=&utm_content=
2026-04-28 · GoogleDeepMind · 打开 ↗
随着 AI 的演进,教育也必须跟上步伐。🍎 自 2023 年起,通过与 @RaspberryPi_org 合作,Experience AI 项目便开始提供免费资源,帮助师生了解 AI 及其运作原理。 见证成果 ⬇️ https://twitter.com/GoogleDeepMind/status/2049174327124263379/video/1
2026-04-28 · GoogleDeepMind · 打开 ↗
✏️ 93% 的教育工作者表示,培训提升了他们对 AI 概念的认知 ✏️ 87% 的教师在教授这些复杂课题时更有信心 ✏️ 已培训超过 3 万名教师 ✏️ 覆盖 180 个国家的 290 万名学生,提供 19 种语言支持 https://twitter.com/GoogleDeepMind/status/2049174330064470022/photo/1
2026-04-28 · GoogleDeepMind · 打开 ↗
十年前,AlphaGo 在韩国展示了人工智能的潜力。 现在,我们正与韩国政府合作,探索如何利用这项技术加速科学发现,并为整个地区的经济增长创造新机遇。🇰🇷 了解更多 → https://deepmind.google/blog/announcing-our-partnership-with-the-republic-of-korea/?utm_source=x&utm_medium=social&utm_campaign=&utm_content=
2026-04-27 · GoogleDeepMind · 打开 ↗
对 @DemisHassabis 而言,通往 AGI 的之路始于 1988 年的一台 Amiga 500 电脑和一局奥赛罗棋。🕹️ 他关于“软件可以代表人类自主行动”的顿悟,至今仍是我们工作的核心,我们也正运用这一逻辑去攻克重大的科学挑战。 在 @FastCompany 阅读更多内容 → https://www.fastcompany.com/91527380/demis-hassabis-alphago-anniversary/?utm_source=x&utm_medium=social&utm_campaign=&utm_content=
2026-04-24 · GoogleDeepMind · 打开 ↗
随着我们不断突破 AI 基础设施的前沿,我们的研究正致力于探索一个不再受地理位置、容量或芯片类型限制的训练未来。 深入了解技术细节 → https://deepmind.google/blog/decoupled-diloco/?utm_source=x&utm_medium=social&utm_campaign=&utm_content= https://twitter.com/GoogleDeepMind/status/2047330995309826363/video/1
2026-04-23 · GoogleDeepMind · 打开 ↗
这一进展让我们得以重新思考全球算力布局: 🔘 我们成功利用低带宽网络,跨美国四个区域完成了 12B @GoogleGemma 模型的训练 🔘 我们证明了可以混合使用不同代际的硬件(如 TPU6e 和 TPUv5p),且不会降低训练性能
2026-04-23 · GoogleDeepMind · 打开 ↗
这是 Decoupled DiLoCo:我们全新的跨数据中心 AI 模型训练方案,兼具高容错性与灵活性。🧵
2026-04-23 · GoogleDeepMind · 打开 ↗
深入了解详情 → https://cloud.google.com/blog/products/ai-machine-learning/introducing-gemini-enterprise-agent-platform/?utm_source=x&utm_medium=social&utm_campaign=&utm_content= #GoogleCloudNext
2026-04-22 · GoogleDeepMind · 打开 ↗
我们正与 @GoogleCloud 推出 Gemini 企业级智能体平台,助力企业开发、扩展、治理及优化智能体。作为 Vertex AI 的进化版,它将模型选择与智能体构建融为一体,并带来了集成、安全等更多新功能。
2026-04-22 · GoogleDeepMind · 打开 ↗
通过 Model Garden,您可以调用 200 多种全球领先模型。其中包括我们最新的突破性成果 Gemini 3.1 Pro、Gemini 3.1 Flash Image 和 Lyria 3,以及 Gemma 4 等开源模型。
2026-04-22 · GoogleDeepMind · 打开 ↗
仅有 25% 的企业实现了 AI 的大规模落地。我们正致力于改变这一现状。🛠️ 我们正与 @Accenture、@BainandCompany、@BCG、@Deloitte 及 @McKinsey 展开合作,将我们的研究成果与他们的专业经验相结合,以负责任的方式推动 AI 创新赋能更多行业。🤝 了解更多详情 → https://deepmind.google/blog/partnering-with-industry-leaders-to-accelerate-ai-transformation/?utm_source=x&utm_medium=social&utm_campaign=&utm_content=
2026-04-22 · GoogleDeepMind · 打开 ↗
Deep Research 现在支持任意 MCP,可安全地连接并分析自有或第三方数据。 此外,它也是我们首款能原生生成演示级视觉图表的研究智能体,让数据更加生动直观。 立即通过 Gemini API 开始构建 → https://blog.google/innovation-and-ai/models-and-research/gemini-models/next-generation-gemini-deep-research/?utm_source=x&utm_medium=social&utm_campaign=&utm_content=
2026-04-21 · GoogleDeepMind · 打开 ↗
Deep Research 和 Deep Research Max 是我们基于 Gemini 3.1 Pro 开发的最新自主研究智能体。它们可以安全地检索网络及您的自定义数据(如内部文档、专业金融信息等),生成专业级且附带完整引用的报告。🧵
2026-04-21 · GoogleDeepMind · 打开 ↗
🔵 Deep Research:针对速度与效率进行了优化,非常适合需要快速响应的交互式应用。 🔵 Deep Research Max:投入更多时间进行搜索与推理,是详尽上下文收集和后台任务的理想选择。 https://twitter.com/GoogleDeepMind/status/2046627044453134389/photo/1
2026-04-21 · GoogleDeepMind · 打开 ↗
无需编写复杂代码,团队只需通过自然语言即可与 Spot 交互。 我们为 Gemini Robotics ER 与 Spot 系统搭建了桥梁,赋予 AI 自由移动、拍照和抓取等基础能力,使其能够执行更复杂的任务。 了解更多 → https://bostondynamics.com/blog/tools-for-your-to-do-list-with-spot-and-gemini-robotics/?utm_source=x&utm_medium=social&utm_campaign=&utm_content=
2026-04-16 · GoogleDeepMind · 打开 ↗
我们与 @BostonDynamics 展开合作,为 Spot 机器人接入 Gemini Robotics 具身推理模型。这意味着它能更好地理解周围环境、识别物体并执行简单指令——例如整理房间。 https://twitter.com/GoogleDeepMind/status/2044763625680765408/video/1
2026-04-16 · GoogleDeepMind · 打开 ↗
🔵 语音更自然 🔵 支持印地语、日语、德语等 70 多种语言 🔵 所有输出均带有 SynthID 水印 https://twitter.com/GoogleDeepMind/status/2044447032530575864/photo/1
2026-04-15 · GoogleDeepMind · 打开 ↗
获取方式如下: 开发者:可通过 Gemini API 和 @GoogleAIStudio 进行预览 企业用户:正在 Vertex AI 上推出预览版 普通用户:正在向 @Google Vids 推送 了解更多 → https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-flash-tts/?utm_source=x&utm_medium=social&utm_campaign=&utm_content= https://twitter.com/GoogleDeepMind/status/2044447035563167970/photo/1
2026-04-15 · GoogleDeepMind · 打开 ↗
Gemini 3.1 Flash TTS 是我们迄今为止可控性最强的文本转语音模型。 凭借全新的音频标签(Audio Tags),你可以通过文本指令轻松掌控人声风格、表达方式和语速。🧵
2026-04-15 · GoogleDeepMind · 打开 ↗
想打造更智能的机器人吗? 该模型现已在 @GoogleAIStudio 和 Gemini API 上线。了解更多 → https://deepmind.google/blog/gemini-robotics-er-1-6/?utm_source=x&utm_medium=&utm_campaign=&utm_content=
2026-04-14 · GoogleDeepMind · 打开 ↗
工业巡检面临着巨大的视觉挑战。当波士顿动力的 Spot 等机器人在设施内巡逻时,会拍摄到复杂的模拟仪表盘图像。Gemini Robotics-ER 1.6 的升级版能够处理这些图像,并能通过编写代码来应对相机畸变。
2026-04-14 · GoogleDeepMind · 打开 ↗
这也是我们迄今为止最安全的机器人模型。Gemini Robotics-ER 1.6 在执行指令时能理解物理约束,例如避开液体或超过 20 公斤的物品。此外,它在视频中检测人员受伤风险的能力也提升了 10%。
2026-04-14 · GoogleDeepMind · 打开 ↗
核心优势:Gemini Robotics-ER 1.6 结合了空间推理、世界知识与智能体视觉,使机器人能够读取各类仪表。看它如何实现亚刻度级的指针仪表读数 ↓ https://twitter.com/GoogleDeepMind/status/2044069886024941994/video/1
2026-04-14 · GoogleDeepMind · 打开 ↗
Gemini Robotics-ER 1.6 提升了机器人对图像中物体的精准定位能力。即使在杂乱的工作间寻找工具,它也能准确识别并清点目标,同时自动忽略不存在的物体。
2026-04-14 · GoogleDeepMind · 打开 ↗
得益于多视角推理和融合实时摄像头流以理解完整场景的能力,该模型能够判断任务是否完成,从而决定是重试还是继续。 观看它如何通过处理多个视角来确认任务是否完成 ↓ https://twitter.com/GoogleDeepMind/status/2044069883479007559/video/1
2026-04-14 · GoogleDeepMind · 打开 ↗
我们正在推出一项升级,旨在帮助机器人对物理世界进行推理。🤖 Gemini Robotics-ER 1.6 显著提升了视觉与空间理解能力,从而能够规划并完成更多实用的任务。以下是其重要性所在 🧵 https://twitter.com/GoogleDeepMind/status/2044069878781390929/video/1
2026-04-14 · GoogleDeepMind · 打开 ↗
Gemma 4 表现远超其规模,无需大规模计算即可超越规模大其 10 倍的模型。Gemma 系列首周下载量突破 1000 万,累计下载量已超 5 亿。我们很高兴看到开放研究社区展现出如此高的参与度。
2026-04-09 · GoogleDeepMind · 打开 ↗
Start building with Gemma 4 ↓ https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/?utm_source=x&utm_medium=social&utm_campaign=&utm_content=
2026-04-09 · GoogleDeepMind · 打开 ↗
Start building with Gemma 4 now in @GoogleAIStudio. You can also download the model weights from @HuggingFace, @Kaggle, or @Ollama. Find out more → https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/?utm_source=x&utm_medium=social&utm_campaign=&utm_content
2026-04-02 · GoogleDeepMind · 打开 ↗
Build autonomous agents that plan, navigate apps, and execute multi-step tasks – like searching databases or triggering APIs – with native tool use. With up to 256K context, it can analyze full codebases and retain complex action histories without losing focus. https://twitter.c
2026-04-02 · GoogleDeepMind · 打开 ↗
Available in four sizes: 🔵 31B Dense & 26B MoE: state-of-the-art performance for advanced local reasoning tasks – like custom coding assistants or analyzing scientific datasets. 🔵 E4B & E2B (Edge): built for mobile with real-time text, vision, and audio processing. http
2026-04-02 · GoogleDeepMind · 打开 ↗
Meet Gemma 4: our new family of open models you can run on your own hardware. Built for advanced reasoning and agentic workflows, we’re releasing them under an Apache 2.0 license. Here’s what’s new 🧵 https://twitter.com/GoogleDeepMind/status/2039735446628925907/photo/1
2026-04-02 · GoogleDeepMind · 打开 ↗
We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world – to better understand how it can occur and help protect people. Find out more → https://deepmind.google/blog/protecting-people-from-harmful-manipulation/
2026-03-26 · GoogleDeepMind · 打开 ↗
Our study of 10,000 people shows that AI manipulation depends on the domain. Models had high influence in finance but hit a wall in health, where existing guardrails block false medical advice. By identifying red flag tactics – like using fear – we can build stronger https://twi
2026-03-26 · GoogleDeepMind · 打开 ↗
As AI gets better at holding natural conversations, we need to understand how these interactions impact society. We’re sharing new research into how AI might be misused to exploit emotions or manipulate people into making harmful choices. 🧵 https://twitter.com/GoogleDeepMind/sta
2026-03-26 · GoogleDeepMind · 打开 ↗
Gemini 3.1 Flash Live is rolling out now in Gemini Live in the @GeminiApp and @Google Search Live. Developers can start building in @GoogleAIStudio. Find out more → https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-flash-live/?utm_source=x&utm_m
2026-03-26 · GoogleDeepMind · 打开 ↗
🔵 It’s better at completing tasks and understanding details in noisy environments. 🔵 It can follow long conversations so you don’t have to repeat yourself. https://twitter.com/GoogleDeepMind/status/2037190681509142742/photo/1
2026-03-26 · GoogleDeepMind · 打开 ↗
Say hello to Gemini 3.1 Flash Live. 🗣️ Our latest audio model delivers more natural conversations with improved function calling – making it more useful and informed. Here’s what’s new 🧵 https://twitter.com/GoogleDeepMind/status/2037190678883524716/video/1
2026-03-26 · GoogleDeepMind · 打开 ↗
Lyria 3 Pro is rolling out now. Developers can build with the API in @GoogleAIStudio, while paid subscribers have access in the @GeminiApp. Find out more ↓ https://blog.google/innovation-and-ai/technology/ai/lyria-3-pro/?utm_source=x&utm_medium=social&utm_campaign=&utm_content=
2026-03-25 · GoogleDeepMind · 打开 ↗
You can now create longer tracks with Lyria 3 Pro. 🎶 Map out intros, verses, choruses, and bridges to build high-fidelity compositions up to 3 minutes long. 🎹 https://twitter.com/GoogleDeepMind/status/2036836176233918707/video/1
2026-03-25 · GoogleDeepMind · 打开 ↗
Watch how fast Gemini 3.1 Flash-Lite can generate websites. ⚡ This browser creates each page in real-time as you click, search, and navigate. Give it a try → https://accounts.google.com/v3/signin/identifier?continue=https%3A%2F%2Faistudio.google.com%2Fapps%2Fbundled%2Fflash_lite
2026-03-24 · GoogleDeepMind · 打开 ↗
Google DeepMind 🤝 Agile Robots Our new research partnership will integrate the Gemini foundation models with their hardware to help build the next generation of more helpful and useful robots. Find out more → https://www.agile-robots.com/en/news/detail/agile-robots-and-google-
2026-03-24 · GoogleDeepMind · 打开 ↗
How do we measure progress toward AGI? It takes a village – and a bit of healthy competition. 🛠️ We’re launching a global hackathon with @Kaggle to build new cognitive evaluations for AI. With $200k in prizes up for grabs, help us put our framework to the test. Join the https:/
2026-03-17 · GoogleDeepMind · 打开 ↗
Prism is open source · ⭐ Star on GitHub · about