而卷积神经网络是受人类视觉系统启发设计的,它们也通过多层结构来处理图像信息。
卷积神经网络的第一层通常由卷积层组成,它们就像人类视觉系统的初级视觉皮层一样,专门提取图像的低级特征(如边缘、角度)。
在接下来的几层中,网络会逐步提取更高级的特征,最终能够识别复杂的对象或场景。
卷积神经网络的层次结构模拟了视觉皮层的分层处理过程。
比如,第一个卷积层可能会识别图像中的边缘,第二个卷积层可能会识别边缘组合形成的形状,第三个卷积层可能会识别这些形状组合形成的物体。
普通人通过感知、体验和反复训练来学习新知识。
学习过程中,大脑中的突触连接会根据经验进行调整,这就是所谓的“突触可塑性”。
通过强化常用的神经连接,大脑能够优化特定的任务处理能力,例如识别人脸、解读文字等。
类似地,卷积神经网络通过训练数据来调整其网络参数。
在训练过程中,网络会对输入图像进行处理,并与实际标签进行比较。
通过反向传播算法,卷积神经网络会逐层调整其权重,以最小化预测误差。
这个过程类似于人类大脑中的突触可塑性,网络逐渐“学习”如何更好地识别图像中的特征。
普通人可以在复杂环境中快速准确地识别物体,无论光线条件如何变化,甚至在部分物体被遮挡时也能识别。
而经过训练的卷积神经网络同样可以在图像分类、物体检测和图像分割等任务中表现出色。
现代的卷积神经网络能够在大规模的图像数据集中识别数千种不同的对象,甚至在有噪声或部分遮挡的情况下也能做出准确预测。
可以说卷积神经网络就是对人体真实机制的1:1精准复刻。
正是根据人脑识别机制的精准复刻,人工智能才能做到拥有像人一样类似的能力。
所以说,人工智能看似是计算机学,实则本质上是仿生学。
依托于对人类机能的深入研究,人工智能发展出了一整套神经网络系统。
这些系统通过模拟人类的神经元连接和突触可塑性,逐步建立起了庞大的人工智能体系。
然而,即使到林枫所熟知的2024年,这一体系依旧被限制在弱人工智能的范畴。
弱人工智能指的是专注于单一任务的人工智能系统。
它们可以在特定任务中表现出色,例如图像识别、自然语言处理、自动驾驶等,但离开了这些设定好的环境,它们就无法自主运作。
弱人工智能并不具备像人类那样的自我学习、理解、推理的能力,更谈不上拥有自我意识或适应多变的环境。
然而,强人工智能却是完全不同的层次。
强人工智能能够像人类一样,不仅能完成单一任务,还可以在任何环境中灵活决策、学习,甚至可能拥有自我意识。
更高的层次是超人工智能,这是一种远超人类智慧的存在,能够进行超越人类认知的思考和推理。
到林枫前世2024年,全球范围内仍然没有任何人工智能突破弱人工智能的壁垒,强人工智能始终只是理论中的可能性。
这种始终被局限在弱人工智能的情况就像被智子封锁了发展路径一样。
那么,问题的根源在哪里呢?
林枫灵光一闪,开始意识到,或许问题不在于人工智能的设计本身,而是在于其底层神经网络的基础依然沿袭自普通人类的神经系统。
人类的神经网络有着生物进化带来的固有限制,包括处理信息的方式、速度和容量。
在这一基础上,尽管卷积神经网络模仿了大脑的层次化结构,尽管我们能让人工智能执行极为复杂的任务,但这些网络的根本性缺陷限制了它们的发展空间。
换句话说,人工智能的“大厦“依旧是基于普通人类的生物学模型搭建的,尽管结构可以精巧无比,但它的基础注定了其上限依旧有限。
而林枫脑海中的“超级记忆宫殿“却带来了一种新的可能。
林枫觉得其体内的神经网络尤其是跟记忆以及信息处理方面有关的神经网络很可能跟普通人的那套神经网络有些不同了。