跳转到内容

2.1 人工智能原理与发展历程

AI思想的起源与演进:从哲学思辨到计算实现

Section titled “AI思想的起源与演进:从哲学思辨到计算实现”

人工智能(Artificial Intelligence, AI),这个在当下引发无限遐想与深刻变革的技术概念,并非如魔法般凭空出现。它的诞生与发展,是一部跨越数百年、交织着哲学探索、数学奠基、工程实践与商业沉浮的宏大叙事。追溯其思想源流与演进脉络,对于身处智能时代的法律人而言,不仅有助于驱散技术的神秘光环,更能深刻理解现代AI的能力边界、内在逻辑,乃至其潜在的风险与未来可能的图景。

本节将带领各位读者穿越时空,回顾AI从古老的梦想走向计算现实的漫漫征程。

一、 思想的火花:哲学与逻辑的奠基 (20世纪中期前)

Section titled “一、 思想的火花:哲学与逻辑的奠基 (20世纪中期前)”

在计算机尚未诞生的遥远年代,关于“智能”本质的思考早已在哲学的殿堂中回响。

  • 古老的哲学追问: 早在古希腊时期,亚里士多德等先贤便已致力于研究形式逻辑与推理规则,尝试将人类严谨的思维过程符号化、规则化。这是最早将“思考”这一看似神秘的过程进行解构的尝试。进入近代,勒内·笛卡尔关于“我思故我在”的论断引发了对心物关系的深刻探讨,而戈特弗里德·莱布尼茨则梦想创造一种“通用语言”和“演算推论器”,期望能通过计算来解决一切争端。这些关于思维能否被形式化、机器是否可能具备智能的哲学思辨,如同思想的种子,为日后AI的破土而出埋下了伏笔。

  • 数学语言的铸就: 要让机器模拟思维,首先需要一种精确描述思维过程的语言。19世纪至20世纪初,乔治·布尔创立的布尔代数,戈特洛布·弗雷格、伯特兰·罗素等人构建的现代谓词逻辑,以及大卫·希尔伯特倡导的形式主义,共同为形式逻辑和数理逻辑体系打下了坚实的数学基础。这些工作使得复杂的推理过程得以用严谨的数学符号和明确的推演规则来表达,为后来通过计算机程序模拟逻辑推理铺平了道路。

  • 计算理论的诞生: 艾伦·图灵(Alan Turing),这位计算机科学与人工智能之父,在1936年提出的“图灵机”(Turing Machine)抽象模型,不仅从理论上定义了什么是“可计算的”问题,也为现代通用计算机的设计理念提供了核心蓝图。更具里程碑意义的是,图灵在1950年发表的划时代论文《计算机器与智能》(Computing Machinery and Intelligence)中,大胆提出了著名的“图灵测试”(Turing Test)。

图灵的工作,连同其他先驱如约翰·冯·诺依曼对计算机体系结构的贡献,共同构成了AI研究得以启动的理论与工程基石。

二、 AI的诞生与早期“黄金时代” (1950s - 1970s)

Section titled “二、 AI的诞生与早期“黄金时代” (1950s - 1970s)”

随着现代计算机的出现,将哲学思辨和逻辑理论付诸实践的条件逐渐成熟,人工智能作为一个独立的学科领域正式登上历史舞台。

  • 达特茅斯会议:AI的“开山仪式” (1956): 1956年夏天,在美国达特茅斯学院举行的一次历史性研讨会,被广泛公认为是AI作为一门独立学科诞生的标志。约翰·麦卡锡(John McCarthy,他正是在这次会议的申请书中首次创造了”Artificial Intelligence”这个术语)、马文·明斯基(Marvin Minsky)、克劳德·香农(Claude Shannon,信息论之父)、赫伯特·西蒙(Herbert Simon,后来的诺贝尔经济学奖得主)等一批充满远见的科学家齐聚一堂。他们怀着巨大的热情和乐观精神,共同探讨了用机器模拟人类学习、思考、决策等智能行为的可能性,并确立了AI研究的宏伟目标——“让机器像人那样思考”。这次会议不仅定义了AI的名称,也勾勒了其早期的研究版图,开启了AI发展的第一个“黄金时代”。

  • 符号主义:智能即符号操作 (Symbolicism / GOFAI): 早期AI研究的主流范式是符号主义,也被称为“老式人工智能”(Good Old-Fashioned AI, GOFAI)。其核心哲学信念是:人类的智能行为,本质上是对外部世界信息进行符号化表示,并通过对这些符号进行逻辑规则驱动的操作(推理)来实现的。因此,只要能找到合适的符号表示方法和强大的逻辑推理引擎,就能在计算机上复现智能。这一思想与人类通过语言、数学等符号系统进行思考的直观感受高度契合。

在符号主义思想指导下,早期AI研究者取得了一系列令人瞩目的成就,极大地增强了人们对AI潜力的信心:

  • 逻辑理论家 (Logic Theorist, 1956): 由艾伦·纽厄尔、赫伯特·西蒙和克里夫·肖共同开发,被普遍认为是第一个真正意义上的人工智能程序。它成功地证明了罗素和怀特海合著的《数学原理》中第二章的38条定理,展示了机器进行逻辑推理的能力。
  • 通用问题求解器 (General Problem Solver, GPS, 1959): 同样由纽厄尔和西蒙开发,GPS试图模仿人类在解决各种问题时所采用的通用策略,特别是“手段-目的分析”(means-ends analysis),即比较当前状态与目标状态的差异,并选择能够缩小这种差异的操作。虽然其“通用性”有限,但它代表了对通用智能机制的早期探索。
  • 早期的自然语言理解尝试: 特里·温诺格拉德(Terry Winograd)于1972年开发的SHRDLU系统是一个代表。它可以在一个由积木组成的虚拟微缩世界(Blocks World)中,理解用户输入的自然语言指令(如“把红色的方块放到蓝色的金字塔上面”),规划并执行相应的动作,还能回答关于这个世界状态的问题。这展示了AI在受限环境下处理自然语言和进行规划推理的潜力。

符号主义思想在商业应用上最显著的成果是专家系统(Expert Systems),它在20世纪70年代开始兴起,并在80年代达到顶峰。

  • 核心思想: 专家系统试图将特定领域(如医疗诊断、化学成分分析、设备故障排查,乃至法律咨询)的人类专家的知识、经验和推理过程,编码成大量的“IF 条件 THEN 结论/操作”形式的规则。系统包含一个庞大的知识库(存储规则和事实)和一个推理引擎(根据输入信息和知识库中的规则进行逻辑推演,得出结论或建议)。
  • 法律领域的早期探索: 专家系统似乎与法律推理的某些方面(特别是基于明确法规条文的判断)具有天然的契合性。研究者们开发了一些早期的法律专家系统原型,例如:
    • 模拟税务专家判断个人是否构成税务居民身份的系统。
    • 辅助进行简单合同条款(如租约)起草或审查的系统。
    • 基于特定法规(如福利资格认定)提供咨询的系统。 这些系统在处理结构化、规则明确的法律问题时,能够提供一致、透明的决策支持,展现了一定的应用价值。它们能够清晰地展示其推理步骤,这对于要求可解释性的法律领域尤为重要。

三、 寒冬降临与新路径:联结主义的沉浮 (1970s末 - 1980s)

Section titled “三、 寒冬降临与新路径:联结主义的沉浮 (1970s末 - 1980s)”

伴随着早期AI研究的巨大成功和媒体的热捧,研究者们曾做出过许多过于乐观的预测(例如,认为通用人工智能在几十年内就能实现)。然而,现实很快证明,智能的复杂性远超预期。

  • 期望落空与第一次AI寒冬: 到了70年代中后期,人们发现早期的AI系统往往只能处理非常狭窄、高度简化的“玩具问题”。面对真实世界的复杂性,诸如组合爆炸(问题规模稍大,计算量就指数级增长)、常识知识表示(如何让机器掌握人类不言自明的常识)等难题难以逾越。一些备受瞩目的项目(如早期的机器翻译计划)效果远未达到预期。这些困难导致了研究资金的大幅削减,公众和业界的兴趣也随之降温,AI领域迎来了第一次“寒冬期”。

  • 联结主义的复苏与并行探索: 在符号主义遭遇瓶颈的同时,另一条长期存在但一度相对沉寂的技术路线——联结主义(Connectionism)——开始重新获得关注。与符号主义试图自顶向下地模拟高级认知功能不同,联结主义的灵感直接来源于对生物大脑神经网络结构的模拟。

  • 早期奠基: 沃伦·麦卡洛克和沃尔特·皮茨在1943年提出了第一个形式化的神经元模型(MP模型),证明了简单的神经元网络可以执行逻辑运算。弗兰克·罗森布拉特在1958年发明了感知机(Perceptron),这是一种可以学习的单层神经网络模型,能够解决简单的模式分类问题,引发了第一波神经网络研究热潮。
  • 遭遇重大挫折: 1969年,AI先驱马文·明斯基(他本人更倾向于符号主义)和西摩尔·佩珀特出版了著作《感知机》,其中严格证明了单层感知机无法解决一些基本问题(如经典的“异或”XOR问题),并且悲观地推断多层网络也难以训练。这本书对当时的神经网络研究造成了沉重打击,使其在此后十多年里陷入低潮。
  • 复兴的关键:反向传播算法: 神经网络研究的复兴得益于反向传播算法(Backpropagation, BP) 的重新发现和广泛传播。虽然其核心思想可以追溯到更早的研究(如Paul Werbos在1974年的博士论文),但直到1986年,戴维·鲁姆哈特、杰弗里·辛顿(Geoffrey Hinton)和罗纳德·威廉姆斯等人在《自然》杂志上发表论文,系统地阐述了如何利用反向传播算法有效训练多层神经网络(也称为多层感知机,MLP),才真正点燃了联结主义复兴的火焰。反向传播算法解决了如何根据输出误差来高效调整网络内部各层连接权重的问题,使得训练更深、更复杂的神经网络成为可能,为后来的深度学习革命奠定了最重要的算法基础。

四、 再度遇冷:专家系统泡沫与机器学习的潜行 (1980s末 - 1990s初)

Section titled “四、 再度遇冷:专家系统泡沫与机器学习的潜行 (1980s末 - 1990s初)”

尽管反向传播算法带来了希望,但AI的整体发展并非一帆风顺。80年代的专家系统商业化浪潮,最终也未能持续。

  • 专家系统商业泡沫的破裂: 1980年代,受早期成功案例的鼓舞,大量公司投入巨资开发和部署专家系统,期望能替代或辅助昂贵的人类专家。一时间,各种针对特定行业的专家系统“外壳”(Shells)和开发工具涌现。然而,好景不长,专家系统的固有弊端逐渐暴露:

    • 维护成本高昂: 知识库需要持续更新以反映领域变化,但手动维护规则非常困难和昂贵。
    • 知识获取瓶颈依旧: 即使有更好的工具,从专家头脑中提取、形式化知识仍然是最大的障碍。
    • 应用领域受限: 专家系统通常只在高度专门化、规则清晰的领域表现良好,难以扩展到更广泛、更模糊的问题。
    • 集成困难: 往往是独立的系统,难以与企业现有的信息系统集成。
    • 用户期望过高: 市场宣传往往夸大了系统的实际能力。 这些问题导致许多专家系统项目失败,市场信心受挫,投资锐减,AI领域迎来了第二次、也是更长的一次“寒冬”。许多曾经的AI明星公司倒闭或被迫转型。
  • 机器学习的稳步前行: 在AI整体声誉受损、资金紧张的背景下,机器学习(Machine Learning, ML) 作为AI的一个重要分支,在这一时期并未完全停滞,反而更加注重实用性和数学基础。研究者们开发和完善了一系列不依赖于大规模人工知识编码的算法,它们能够从数据中自动学习模式。例如:

    • 决策树(Decision Trees): 如ID3, C4.5算法。
    • 支持向量机(Support Vector Machines, SVM): 在90年代由Vapnik等人提出,成为当时最强大的分类算法之一。
    • 贝叶斯网络(Bayesian Networks): 用于处理不确定性推理。 这些机器学习算法在数据挖掘(Data Mining)模式识别(Pattern Recognition)统计学习等领域开始找到实际应用,虽然不像早期AI那样追求通用智能,但它们为后来AI的复兴积累了重要的技术和方法论。

五、 现代复兴:大数据、算力与算法的合力 (21世纪初至今)

Section titled “五、 现代复兴:大数据、算力与算法的合力 (21世纪初至今)”

进入21世纪,尤其是2010年之后,人工智能领域迎来了前所未有的爆发式增长,进入了一个全新的“春天”,其核心驱动力来自于三大要素的汇聚:

  1. 大数据:智能的“燃料” (Big Data): 互联网的普及、社交媒体的兴起、移动智能设备的广泛应用以及物联网(IoT)的发展,使得人类社会以前所未有的速度和规模产生着海量的、多样化的数据(文本、图像、视频、音频、传感器数据等)。这些大数据为那些需要从大量样本中学习规律的机器学习算法,特别是深度学习模型,提供了充足的“燃料”。没有足够的数据,再强大的算法也难以发挥威力。

  2. 算力革命:从CPU到GPU/云计算 (Computing Power): 机器学习,尤其是深度学习模型的训练,需要进行极其密集的计算。传统的中央处理器(CPU)虽然通用,但在执行大规模并行计算时效率不高。恰在此时,原本为电子游戏设计的图形处理器(Graphics Processing Unit, GPU) 被发现其拥有数千个小型计算核心,非常适合执行神经网络训练中涉及的大量矩阵和向量运算。GPU的应用极大地缩短了深度学习模型的训练时间(从几周、几个月缩短到几天甚至几小时),使得训练更大、更深、更复杂的模型成为现实。同时,云计算(Cloud Computing) 平台的兴起,使得研究者和开发者能够以相对低廉的成本按需获取强大的计算资源,进一步降低了AI研发的门槛。

  3. 算法突破:深度学习与Transformer的时代 (Algorithmic Breakthroughs):

    • 深度学习的王者归来 (约2006年起): 杰弗里·辛顿(Geoffrey Hinton)、杨立昆(Yann LeCun)、约书亚·本吉奥(Yoshua Bengio)(这三位后来共同获得了2018年的图灵奖)等人的工作,特别是辛顿团队提出的深度信念网络(Deep Belief Networks, DBN) 和有效的无监督预训练(unsupervised pre-training) 方法,成功解决了困扰研究者多年的深度神经网络(层数很多的网络)难以有效训练的问题(如梯度消失/爆炸)。这标志着深度学习(Deep Learning) 的真正崛起。
    • 卷积神经网络(Convolutional Neural Networks, CNN) 在图像识别领域取得革命性突破。例如,2012年,AlexNet模型(由Hinton的学生Alex Krizhevsky等人开发)在著名的ImageNet大规模视觉识别挑战赛中以远超传统方法的精度夺冠,震惊了整个学术界和工业界,开启了深度学习在计算机视觉领域的黄金时代。
    • 循环神经网络(Recurrent Neural Networks, RNN) 及其改进版本如长短期记忆网络(Long Short-Term Memory, LSTM)门控循环单元(Gated Recurrent Unit, GRU),在处理序列数据(如语音识别、机器翻译、自然语言文本)方面展现出强大能力。
    • Transformer架构与大语言模型的浪潮 (约2017年起): Google在2017年发表的论文《Attention Is All You Need》中提出的Transformer模型,及其核心的自注意力机制(Self-Attention Mechanism),彻底改变了自然语言处理(NLP)领域。Transformer架构能够更好地捕捉文本中的长距离依赖关系,并且具有高度的并行计算能力。基于Transformer架构,研究者们得以训练出参数量极其庞大(从数亿到数万亿)的预训练语言模型(Pre-trained Language Models, PLMs),如Google的BERT、OpenAI的GPT系列(GPT-3, GPT-4)、Meta的Llama系列等。这些大型语言模型(Large Language Models, LLMs) 在几乎所有NLP任务上都取得了惊人的性能,并催生了当前的生成式AI(Generative AI, GenAI) 浪潮,能够进行流畅对话、撰写文章、编写代码、生成图像等。
    • 强化学习(Reinforcement Learning, RL)的重大进展: DeepMind公司开发的AlphaGo程序,结合了深度学习和强化学习以及蒙特卡洛树搜索,在2016年击败了世界顶级围棋棋手李世石,成为AI发展史上的又一个里程碑事件,展示了深度强化学习(Deep Reinforcement Learning, Deep RL) 在复杂决策和策略规划问题上的巨大潜力。

六、 当代主流:机器学习引领的时代

Section titled “六、 当代主流:机器学习引领的时代”

回顾AI的发展历程,我们可以清晰地看到,虽然符号主义的思想和方法(如规则引擎、知识图谱)在某些特定场景(例如需要高透明度、强逻辑保证或利用已有结构化知识的领域)仍然占有一席之地并持续发展,但当前人工智能领域的主流技术范式已经毋庸置疑地转向了以机器学习,特别是深度学习为核心的方法。

现代AI系统在处理复杂、高维度、非结构化的现实世界数据(如自然语言文本、图像、声音)方面所展现出的强大能力,主要归功于其从海量数据中自动学习特征和模式的能力,而非依赖于人工编写详尽的规则。这使得AI的应用领域得到了前所未有的扩展。

七、 历史的回响:给法律人的启示

Section titled “七、 历史的回响:给法律人的启示”

了解人工智能从哲学思辨到计算实现这漫长而曲折的演进历程,对于法律专业人士而言,不仅仅是满足好奇心,更具有重要的现实意义:

  • 祛魅与理性认知: AI并非一蹴而就的“魔法”,而是几代科学家智慧的结晶,其发展充满了波峰与低谷,期望与现实的落差。理解这一点有助于我们理性看待当前的AI热潮,既不应过分神化其能力,也不必陷入不必要的恐慌,而是要认识到技术发展的阶段性和固有的局限性。
  • 洞悉技术本质: 了解符号主义、联结主义、机器学习、深度学习等不同技术范式的核心思想、优势与劣势,有助于法律人更好地理解市场上各种AI法律工具的底层逻辑。例如,区分一个基于规则的专家系统和一个基于深度学习的文档审查工具,有助于我们更准确地评估其适用场景、可靠性、可解释性以及潜在风险。
  • 把握发展脉络: AI的历史充满了范式转换和技术突破。了解过去所面临的挑战(如知识获取瓶颈、常识推理难题、AI寒冬)以及驱动进步的关键因素(数据、算力、算法),可能有助于我们更敏锐地把握AI技术未来的演进方向,思考其对法律服务模式、法律职业伦理乃至法律体系本身可能带来的长远影响,从而更好地拥抱变革、应对挑战。

下一节,我们将聚焦于现代AI的核心引擎——机器学习,深入探讨其基本原理、主要类型和关键概念,为法律人理解当前主流AI技术打下更坚实的基础。