医疗设备相关专业
欢迎阅读 OSCHINA 编辑部出品的开源日报——您探索和理解开源世界的日常指南。在这里,我们每天从宏观到微观,全面展现开源技术和文化的动态图景。
美东时间 12 月 26 日周四,OpenAI㊣㊣ 确认,美东时间上午 11 点整振动台试验方案,旗下服务开始发生✅✅大规模宕机。系统服务中断于北京时间 12 月 27 日凌晨 2 点 30 分左右开始,影响 ChatGPT 聊天机器人、Sora 视频生成模型以及部分 API 调用。
OpenAI 公布的状态页面显示,OpenAI 在 11 点整公布启动调查,称 ChatGPT、Sora 和和 API 都出现高错误率,11 点 18 分确认,问题出自 “上游供应商”,在监控情况。
此后,OpenAI 分别在 12 点 06 分和 13 点 05 分更新状态称,继续研究解决问题,14 点 05 分称,Chat GPT 已经部分恢㊣复正常,聊天纪录仍未加载,OpenA✅㊣I 在继续解决问题。
巧的是,在 OpenAI 发生宕✅机的同时,OpenAI 的独家云服务器供应商微软报告称,旗下一个数据中心出现 “电源问题”,主要影响到北美地区用户,正在调查这个问题。
浙商证券在其报告中指出,字节跳动在 A㊣I 上加大流量投放、扩大资本开支、大力扩张团队,研发投入显著✅领先同行。在资金上,字节跳动在 A✅I 上投入巨大,2024 年资本开支达到 800 亿元,接近百度、阿里、腾讯三家的总和(约 1000 ✅亿元)。
2025 年,字节跳动资本开支有望达到 1600 亿元,其中约 ㊣900 亿元将用于 AI 算力的采购,700 亿元用于 IDC 基建以及网络设备。
据 The Information 报道,微软和 OpenAI 正就合作条款进行争执,其摩擦焦点主要涉及双方的云计算交易、收入分成和 IP 问题。据称,微软和 OpenAI 自大约 10 月份以来一直在洽谈 OpenAI 结构的潜在调整,会谈重点讨论了微软是否会继续获得 OpenAI 20% 的收入。
Ruby 语言以在圣诞节这天发布重大更新闻名,今年的圣诞㊣节当然也不例外,它释出了 Ruby 3.4医疗设备相关专业。主要新特性包括:引入 it 用于引用一个没有变量名称的区块参数;默认解析器 Prism;socket 库支持 RFC 8305 “Happy Eyeballs V2”;改进 YJIT just-in-time 代码性能,等等。
这几天刷推很明显的感觉到英文技术社区对中国 AI 产业的进步速度处于一种半震动半懵逼的状态,应激来源主要是两个,一个是宇树(Unitree)的轮足式机器狗 B2-W,另一个是开源 MoE 模型 DeepSeek-V3。
如果说宇树是在硬件上引起了一波怀疑现✅实的热度,那么 Deep✅Seek 则在软件的原生地盘,把大模型㊣厂商都给硬控住了。
我最早对梁文锋有印象,是「㊣西蒙斯传」里有他写的序,西蒙斯是文艺复兴科技公司的创始人,用算法模型去做自动化投资的开创者,梁文锋当时管着 600 亿㊣人民币的量化私募,写序属于顺理成章的给行业祖师爷致敬。
交待这个背景,是想说,梁文锋的✅几家公✅司,从量化交易做到大模型开发,并不是一个金融转为科技的过程,而是数学技能在两个应用场景之间的切换,投资的目的是㊣预测✅市场,大模型的原理也是预测 Token。
一则小故事,数学家伯努利看到一篇匿名数学论文,马上认出是牛顿的手笔:从爪子判断这是一头雄狮。
阅读完 DeepSeek V3 技术报告有一种类似的感觉,在 DeepSeek 论文里看到了早期 Google 和 OpenAI 的影子:追求实效、狂野㊣的想象力、扎实的㊣工程交付能力(想象力都能验证和兑现)三方面的统一。从 MLA,MoE㊣ 稳定训练技术到推理部署,乃至最后对硬件迭代方向的建议,让海外同行也 respect ,属实厉害。
Andrej Karpathy:DeepSeek(中国人工智能公司)今天表现得游刃有余,发布了一款前沿级 LLM 的开放权重模型,并且该模型的训练预算极其紧张(2048 个 GPU 运行 2 个月,耗资 600 万美元)。
作为参考,这种✅级别的能力通常需要近 16,000 个 GPU 的集群,而目前正在投入使用的 GPU 数量则接近 10 万个。例如,Llama 3 405B 使用了 3080 万 GPU 小时,而 DeepSeek-V3 看起来是一个更强的模㊣型,仅使用了 280 万 GPU 小时(计算量减少了约 11 倍)。如果该㊣模型还能通过氛围检查(例如 LLM 竞技场排名正在进行中,我的一些快速㊣测试到目前为止进展顺利),这将在资源限制下展现出非常令人印象深刻的研究和工程成果。
这是否意味着你不需要大型 GPU 集群来应对前沿 LLMs?不,但你必须确保不浪费现有资源,这看起来是一㊣个很好的示范,表明在数据和算法方面仍有很多工作要做。
贾扬清转了这个帖子认同 DeepSeek 的技术能力,说他在 2019 年就和 DeepSeek 做过技术交流,当时提了技术建议是 “你们不需要复杂的云虚拟化,只需要容器和一个高效的调度器。你们㊣需要真正快速、互联的专业㊣网络,比如 RoCE 或 Infiniband。你们需要✅一个通用的存储方案,比如 NFS,不需要太花哨,但必须足够✅快。让 AI 开发者满意,而不是让 SRE(站点可靠性工程师)满意。” 而 DeepSeek 的人表示他们已经在这么做有一段时间了。
在 ㊣2024 年的全球科技版图上,中国机器人产业扬帆✅启航,加速 “出海”。从餐饮配送到工业制造,从医疗辅助到智能家居,从消费服务到物流仓储,中国机器人的身影无处不㊣在,正以优越的性能和创新㊣的技术,为全球智能制造和产业升级贡献中国方案和中国智慧。
视频生成、语音交互等 AI 应用近年来持续火热,在 2024 年已让越来越多用户得到高效便捷的体验。更令业界瞩目的是,2024 年各传统行业开始拥抱 AI 技术,将行业数据、计算模型赋予具备深度学习能力的 AI,在工业生产领域开启规模化应用的路径。
脑机接口一度承载了人们对赛博格的绝大部分想象,但是这两年脑机接口的✅进步似乎并不是预想中的快,尤其是在 AI 日新月异的进步衬托下。
这其中当然有很多复杂的原因。脑机接口本身就是一个典型的交叉学科,涉及到了电极㊣材料、芯片封装、医疗器械、算法,是一个非常复杂的㊣全系统。更为关㊣键的是,伦理问题使得脑机接口的每一次试验都必须十分慎重。彭雷提到,他们往往㊣需要一年时间来准备一场试验。
现在,作为 Google DeepMind 首席 AG㊣I 科学家,Legg 将 AGI 定义为 “至少可以在人们通常可以完成的认知任务中与人类能力相匹配的东西”。Hassabis 对于✅某个实体(不一定是谷歌)何时能实现 AGI 留了很大的余地,一边说,“10 年后有 ㊣50% 的机会”,又一边说,“如果它✅发生得更早,我也不会感到惊讶。”
这一年,AI 成为大国角力的新战场。中美两国,不约㊣而同都大㊣力推进人工智能的发展。在国内,“人工智能 ✅+” 引领了全年的大模型落地潮,央国企成为先行力量。而大洋彼㊣岸,“硅谷七姐妹” 领涨美股,AI 卖铲人英伟达从年初笑到年尾。
从互联网萌芽到移动时代,从 BAT 鼎立到新兴力量崛起,中国科技产业的发展历程告诉我✅们:唯有与时俱进,方能立于不败之㊣地。对于字节跳动而言,豆包的市场表现或许只是一个开始,如何在全球 AI 竞技场上为中国科技企业赢得更多话语权,才是其面临的真正考验。
Thanos 是一组可以组成具有长期存储期限的高可用指标系统的组件,可以将其无缝添加到现有 Prometheus 部署之上。
开源之声 用户观点观点 1:其实最炸✅场的是它的训练成本,只有同级别的十分之一甚至更低,简直是工程奇迹 观点 2:国内的大模型一㊣发表就是啥都最牛逼,真正一用啥也不是 观点 3:deepseek 和 qwen 确实是厉害的,宣传上✅很谦虚了。其他的差不多就像你说的那样 观点 4:想知道大家在 jb 家软件或者 vscode 上,用什么 AI 插件自定义 api ㊣接口的? 观点 5:可以看 awesome-deepseek 观点 6:中国在㊣基础研究领悟滞后,但在应用开发方面确实算遥遥㊣领先 观点 7:600b 对㊣比 300b?牛逼 ✅观点 8:毫不夸张地㊣说,Deepse㊣ek 是国产开源之光。 观点 9:我前天试用了一下 chat,感觉除了推理以外很一般,今天再看看㊣ 观㊣点 10:但是 deepseek 提供的 api 速度太慢了,模型提升了 api 速度提升了吗 观点 11:3 倍速度
请先 登录后发表评论 ~