生成式人工智能的演变

许多年前,智能手机的预测文本功能让我们感到惊奇。然后,Gmail 的智能回复功能让我们的生活变得轻松,该功能利用机器学习算法为我们提供一句话的回复。这些基本的创新是生成式人工智能的初始形式的例子。但是,从那时起,随着生成式人工智能的进步,我们已经走了很长一段路。

生成式人工智能的演变是一个引人入胜的故事。让我们看看 GenAI 如何演变并改变了人工智能的格局 −

早期人工智能探索(1950 年代 - 1980 年)

1950 年代是人工智能早期思想出现的时期。 1950年,艾伦·图灵在论文《计算机机械与智能》中探讨了人工智能的数学可能性,并提出了为什么机器不能像人一样思考的问题。

1952年,英国计算机科学家Christopher Strachey为曼彻斯特Mark 1计算机编写了一个程序,可以生成一封模拟情书。这个程序是第一个文本生成软件。

1966年,麻省理工学院教授Joseph Weizenbaum创建了第一个聊天机器人ELIZA。这是一个早期的自然语言处理程序,可以模拟与心理治疗师的对话。

1968年,斯坦福大学麻省理工学院的学生Terry Winograd创建了一个名为SHRDLU的自然语言处理计算机程序。它实际上是一个能够在受限的块世界环境中理解和响应命令的系统的演示。

Michael ToyGlenn Wichman 于 1980 年开发了一款名为 Rogue 的基于 Unix 的视频游戏。它是首批实现程序生成以动态生成新游戏级别的游戏之一。

神经网络复兴(1980 年代 - 2010 年)

1985 年,著名计算机科学家和哲学家 Judea Pearl 引入了贝叶斯网络,也称为因果网络的信念网络。贝叶斯网络建立了生成式人工智能的建模概念。

Michael Irwin Jordan 于 1986 年发表了《串行顺序:一种并行分布式处理方法》,为 RNN(循环神经网络)的使用奠定了基础。

1989 年,Yann LeCunYosua Bengio 展示了如何使用 CNN(卷积神经网络)进行图像识别。

2003 年,蒙特利尔大学的研究人员发表了一篇论文《神经概率语言模型》。该论文提出了一种使用前馈神经网络进行语言建模的技术。

2006 年,斯坦福大学教授 Fei-Fei Li 创建了 ImageNet 数据库,为视觉对象识别奠定了基础。

深度学习的优势与Transformer 革命(2010 年代 - 2020 年)

2011 年,苹果发布了基于深度学习技术的文本转语音语音 Siri

2012 年,Alex Krizhevsky 提出了 AlexNet CNN 架构。这确实是一种利用最新 GPU 进展来自动训练神经网络的创新方法。

Ian Goodfellow 和他的同事在 2014 年开发了生成对抗网络 (GAN)。同年,Max WellingDiederick Kingma 开发了 变分编码器 (VAE) 来生成文本、图像和视频。

2015 年,斯坦福大学的一组研究人员发表了一篇论文《利用非平衡热力学进行深度无监督学习》。他们介绍了一种扩散模型技术,该技术提供了一种逆向工程向图像添加噪声的过程的方法。

谷歌研究人员在 2017 年引入了 transformer 的概念。该技术会自动将未标记的文本解析为大型语言模型 (LLM)

2018 年,Google 将 Transformer 实现到 BERT(Transformer 的双向编码器表示)。同年,OpenAI 推出了基于 Transformer 的语言模型 GPT-1

专用生成模型(2020 年代至今)

2020 年,OpenAI 发布了其生成式预训练 Transformer 的第三次迭代,即 GPT-3。它是能够生成类似人类文本的最大语言模型之一。

次年,即 2021 年,OpenAI 推出了可以根据文本提示生成图像的 Dall-E。 2022 年 11 月 30 日,OpenAI 发布了 ChatGPT 的 网页预览版

Open AI 于 2023 年发布了 GPT-4。这家 AI 公司声称,"得益于更广泛的常识和高级推理能力,GPT-4 可以更准确地解决具有挑战性的问题。" 2023 年 8 月 20 日,OpenAI 推出了 DALL-E3。

2023 年 3 月,谷歌发布了基于其 LaMDA 引擎的 Bard 聊天服务。但是,在 2024 年 2 月 8 日,谷歌将 Bard 聊天机器人更名为 Gemini