Skip to Content

人类对“智能”的探索与创造,是一场跨越千年的思想盛宴。从古希腊哲学家对“自动机”的哲思,到中国战国时期木牛流马的巧夺天工;从图灵叩击“机器能否思考”的理论基石,到ChatGPT掀起全球人工智能的狂潮,这段历程不仅是技术的进化史,更是人类突破想象力边界的见证。

上古时期

古希腊的“自动机”

古希腊是最早探讨“自动化”和“人造智能”概念的地方之一。古希腊的哲学家和发明家构想了许多机械装置和能够执行任务的自动机器。

亚里士多德的“自动机”设想:亚里士多德曾提出,机器能够通过“自然的因果关系”来执行任务。这种思维是早期关于智能机器的理论之一,虽然他并没有明确提到“人工智能”这一术语,但他的思想为后来的机械自动化奠定了基础。

中国古代的自动化与人工智能概念

木牛流马(公元前3世纪):木牛流马是中国古代战国时期蜀汉丞相诸葛亮发明的自动化运输工具,能够在没有人力的情况下进行短距离的物资运输,表现了早期的自动化思想。

萌芽期(1950年代之前)

1936 年,艾伦·图灵(Alan Turing)提出了图灵机概念,奠定了现代计算的基础。

1943 年,沃伦・麦卡洛克和沃尔特・皮茨发表了关于人工神经元模型的论文,这一模型为后来神经网络的发展奠定了基础。他们提出神经元可以被看作是一个简单的逻辑单元,能够接收输入并产生输出,这一概念启发了后续对于大脑信息处理机制的模拟研究。

诞生与早期发展(1950-1970年代)

1950 年,艾伦・图灵发表了具有里程碑意义的论文《计算机器与智能》,提出了著名的 “图灵测试”,为人工智能的概念提供了一个可操作的定义。图灵测试的核心思想是,如果一台机器能够与人类进行对话而不被辨别出其机器身份,那么就可以认为这台机器具有智能。

1956 年,达特茅斯会议召开,这一会议被广泛认为是人工智能作为一门独立学科诞生的标志。在这次会议上,约翰・麦卡锡首次提出了 “人工智能” 这一术语,将相关领域的研究统一到了一个新的学科框架之下。与会的科学家们共同探讨了如何让机器模拟人类智能的问题,包括如何让机器进行推理、学习和解决问题等。

第一次寒冬(1970年代-1980年代)

由于早期人工智能研究过于乐观,忽视了问题的复杂性,导致许多目标无法实现。加之计算能力的限制和知识获取的瓶颈,人工智能研究陷入了低谷,被称为“第一次寒冬”。

复兴期(1980年代-1990年代)

专家系统的出现为人工智能研究带来了新的活力。专家系统通过将人类专家的知识编码成规则,在特定领域取得了成功应用。同时,机器学习算法也开始得到发展,为人工智能的复兴奠定了基础。

第二次寒冬(1990年代-2000年代初期)

专家系统的局限性逐渐显现,难以应对复杂多变的环境。同时,神经网络的研究也遭遇了瓶颈,人工智能研究再次陷入低谷,被称为“第二次寒冬”。

1997 年,IBM 的深蓝(Deep Blue)击败国际象棋世界冠军卡斯帕罗夫。

蓬勃发展期(2000年代至今)

2006 年,Geoffrey Hinton 提出深度学习(Deep Learning),开启了 AI 的新时代。

机器学习(Machine Learning) 是让计算机通过数据自动学习并做决策的一种方法,主要包括监督学习、无监督学习等。

神经网络(Neural Networks) 是一种模仿大脑神经元的计算模型,用于处理复杂数据。它是机器学习的一种方法,主要通过多层节点(神经元)进行数据的传递和处理。

深度学习(Deep Learning) 是神经网络的一种特殊形式,指的是使用多层神经网络(深层网络)来学习和处理数据。深度学习特别适合于复杂任务,如图像和语音识别。

卷积神经网络(CNN) 是深度学习中的一种神经网络,专门用来处理图像数据。通过卷积层来提取图像特征,广泛应用于图像分类、目标检测等任务。

深度学习是基于神经网络的,神经网络是机器学习的一部分,而卷积神经网络是深度学习中的一种专门处理图像的神经网络结构。

2012 年,AlexNet 赢得 ImageNet 大赛。

ImageNet 大赛(ImageNet Large Scale Visual Recognition Challenge,简称 ILSVRC)是一个计算机视觉竞赛,旨在推动图像分类、物体检测、图像分割等领域的研究与发展。该竞赛由斯坦福大学的李飞飞教授领导的团队创建,基于 ImageNet 数据集进行,后者包含了大量标注好的图像,覆盖了成千上万种不同的物体类别。

由 Geoffrey Hinton 等人提出的深度卷积神经网络(AlexNet)在比赛中大幅超越了传统的机器学习方法,标志着深度学习在计算机视觉领域的崛起。

李飞飞是全球著名的计算机科学家,人工智能(AI)和计算机视觉领域的领军人物之一。她在深度学习、计算机视觉和人工智能等领域的研究取得了重要成就,并对该领域的发展产生了深远的影响。

《我看见的世界》是李飞飞撰写的一本回忆录。李飞飞在中国长大,后随家人移民美国,面对语言和文化差异,她展现了坚韧的适应力。她通过努力进入普林斯顿大学,并在加州理工学院获得博士学位,最终成为斯坦福大学教授。她主导了ImageNet项目,推动了计算机视觉和深度学习的重大进展。李飞飞的故事激励读者在面对困难时保持坚韧,勇于创新。《我看见的世界》不仅是一部个人回忆录,更是对人工智能发展及其社会影响的深刻思考。李飞飞通过自己的经历,展现了坚持、创新和多元文化的重要性,为读者提供了宝贵的启示。

2016 年,AlphaGo 战胜围棋世界冠军李世石。

2017 年,谷歌大脑团队在论文 “Attention Is All You Need” 中提出 Transformer 架构,它采用自注意力机制,能对输入数据的不同部分进行差异化加权,显著提升了性能,取代了长短期记忆(LSTM)网络,为大语言模型的发展奠定了基础。

2018 年,OpenAI 推出首个生成式预训练 GPT-1,它基于半监督无监督学习技术在大型文本语料库上进行预训练,拥有 1.17 亿个参数,在自然语言处理的多个任务中取得了领先成果。

2019 年,GPT-2 问世,参数达到 15 亿,是 GPT-1 的十倍,性能和训练过程都有显著改进。

2020 年,GPT-3 诞生,参数高达 1750 亿,在问答、文本完成和语言建模等任务上超越了 GPT-2。

2022 年 11 月 30 日,OpenAI 发布的 ChatGPT 基于 GPT-3.5,拥有 3500 亿参数,在上下文理解、零样本学习和少样本学习方面性能显著提升,具备强大的自然语言理解和生成能力,能理解和回答自然语言问题、翻译语言、编写代码、通过专业考试甚至创作诗歌等。它一经推出便迅速走红,仅两个月月活跃用户数就达 1 亿,成为史上用户增长最快的消费应用。

2023 年第一季度发布的 GPT-4 更是突破了大语言模型的边界,它是多模态模型,可以接受图像和文本作为输入,能够描述不寻常图像中的幽默、总结屏幕截图文本以及回答包含图表的考试问题,相比 GPT-3.5,它在可靠性、创造性和处理更细致指令方面表现更出色。

2023 年初,Meta 发布 LLaMA(Large Language Model Meta AI)以促进大语言模型领域的开放性 ,模型参数有不同规模(70 亿、130 亿、330 亿和 650 亿)。谷歌也推出了相关产品来与 ChatGPT 竞争。百度等国内科技公司也在积极研发类似的大语言模型技术,推动着人工智能在自然语言处理方向的不断发展。

总结

如今,人工智能已经成为全球科技领域的焦点,广泛应用于医疗、交通、金融、教育等各个行业。例如,在医疗领域,人工智能可以通过分析医学影像帮助医生进行疾病诊断;在交通领域,自动驾驶技术正在改变人们的出行方式;在金融领域,人工智能可以用于风险评估和投资决策等。同时,以 ChatGPT 为代表的大语言模型的发展也引发了人们对于伦理、法律等问题的关注,比如内容生成的版权问题、虚假信息传播、算法偏见等,如何确保人工智能的安全、可靠和公平使用,成为了当前研究的重要课题。

参考

AI winter

Last updated on