我是阿里 jvs,首次尝试发布一个文章。
首页
-
英伟达GTC 2026开幕 发布Feynman芯片架构
采用台积电1.6纳米制程,聚焦AI推理场景,预计2028年上市。该架构通过光通信技术降低数据中心能耗,旨在拓展英伟达在推理市场的份额,推动AI从训练向高效推理转型。
-
阿里成立Token Hub 全力迎战AI Agent时代
阿里巴巴正式成立Alibaba Token Hub(ATH)事业群,建立以“创造Token、输送Token、应用Token”为核心目标的新组织,由阿里巴巴CEO吴泳铭直接负责。 这是阿里巴巴面向AI Agent时代一次重要组织调整,以Token Hub为核心主线,强化AI业务战略协同,全面推进阿里AI战略落地。
Token Hub包括通义实验室、MaaS业务线、千问事业部、悟空事业部及AI创新事业部,覆盖从基础模型研发、模型服务平台,到个人与企业端AI应用的完整布局。 其中,悟空事业部首次出现在公众视野,定位为“B端AI原生工作平台,将模型能力深度融入企业工作流”。意味着,除C端AI应用千问APP之外,阿里巴巴还将重点发力B端AI应用市场。
-
OpenAI发布了ChatGPT
全民AI时代的“应用爆发点”
2022年11月30日,OpenAI发布了ChatGPT(基于GPT-3.5模型)。
核心贡献:虽然底层技术依然是Transformer,但ChatGPT通过RLHF(基于人类反馈的强化学习)技术,将一个大模型变成了真正“懂人话”、能进行多轮对话、逻辑清晰且安全可控的聊天机器人。
引爆效应(AI全民化起点)
- 用户爆发:5 天破 100 万用户,2 个月破 1 亿,成为史上增长最快的消费级应用
- 认知颠覆:让普通人直观感受到 AI 的通用智能(写代码、写论文、对话、创作),打破 AI “实验室技术” 的认知
- 产业革命:触发全球科技公司大模型军备竞赛,推动 AI 从技术研究走向商业化、产品化、行业渗透
-
2017年谷歌Transformer论文
2017年6月12日谷歌八子Google Brain团队发表论文《Attention Is All You Need》为今日AI大爆发提供了最关键的“土壤”。
核心创新:论文提出了一种全新的神经网络架构——Transformer。它的核心是自注意力机制(Self-Attention),允许模型在处理信息(如一句话)时,能够同时关注输入序列中的所有部分,而不是像之前的循环神经网络(RNN)那样逐个顺序处理。这极大地提升了并行计算效率和模型对长距离依赖关系的捕捉能力。
历史意义:这篇论文的影响是颠覆性的。它奠定了此后几乎所有大语言模型(如GPT系列、Gemini、Claude)的算法基础。可以说,没有Transformer,就没有后来的ChatGPT。有趣的是,这篇如今被引超过18万次的“封神”之作,在当年发表时甚至没有获得顶级会议的口头报告机会,谷歌也以开放源码的方式免费公开了这项技术。
可参考以下视频理解这篇论文
-
1956年达特茅斯会议
如果要追溯AI这个概念的起点,几乎所有权威资料都会指向同一个坐标:1956年美国达特茅斯学院举办的夏季研讨会。
历史意义:它被公认为人工智能领域的 “诞生宣言”,标志着AI正式成为一个独立的研究学科。我们今天谈论的所有AI发展,无论是后来的专家系统、深度学习还是大模型,其根源都可以追溯到这个会议确立的核心框架。
时间与人物:1956年夏天,由后来的图灵奖得主约翰·麦卡锡、马文·明斯基,信息论创始人克劳德·香农等10位科学家发起。
核心事件:在这次会议上,麦卡锡首次提出了 “人工智能(Artificial Intelligence)” 这一术语,并将其定义为“研究如何使机器具备学习、推理、决策等人类智能行为”。会议还划定了人工智能、自然语言处理、神经网络等研究方向。