神经网络:绝对初学者

发布: (2025年12月23日 GMT+8 13:39)
5 min read
原文: Dev.to

Source: Dev.to

请提供您希望翻译的正文内容,我将按照要求保留源链接、格式和代码块,仅翻译文本部分。

介绍

如果你曾经好奇机器是如何识别人脸、翻译语言,甚至生成艺术作品的,答案往往是神经网络。即使你完全没有背景也不用担心——把它当作一次导览,我们会用日常类比让概念变得易懂。

想象一串灯泡通过电线相连。每个灯泡可以根据收到的电流微弱或强烈地发光。它们共同形成的光的模式即代表了知识。

在计算机术语中

  • 每个灯泡 = 一个神经元
  • 电线 = 连接(权重)
  • 发光 = 激活(输出)
  • 一排灯泡 = 一层

Source:

构建模块

1. 神经元

神经元就像一个微型决策者。

  • 输入: 接收信号(数字)。
  • 处理: 将每个输入乘以一个权重(重要性)。
  • 输出: 将它们相加,应用激活函数,然后把结果向前传递。

类比: 想象咖啡店的咖啡师。他们接受你的点单(输入),考虑你的偏好(权重),决定咖啡的浓度(激活)。最终的咖啡杯就是输出。

神经元被组织成层:

  • 输入层: 像感官——眼睛、耳朵等。
  • 隐藏层: 像大脑的思考过程。
  • 输出层: 像最终的决定——“这是一只猫”。

类比: 想象一个工厂装配线。原材料(输入)经过若干加工站(隐藏层)后变成成品(输出)。

权重与偏置

  • 权重: 每个输入的重要程度。
  • 偏置: 一个额外的推动力,帮助神经元做出更好的决策。

类比: 权重就像配方中的配料量——糖放多了更甜,盐放多了更咸。偏置是厨师总会加的一小撮调味料,即使配方里没有写。

激活函数

激活函数为模型引入非线性,使网络能够学习复杂的模式。

  • 决策: 它们决定神经元是否“触发”,类似于灯开关根据电流的有无而开或关。
  • 非线性: 没有它们,网络只能表现为线性模型,只能学习线性关系。

激活函数的类型

  • Sigmoid(S形函数): 输出介于 0 到 1 之间;常用于二分类。
  • ReLU(修正线性单元): 输入为正时直接输出该值;否则输出零。帮助加快训练并减轻梯度消失。
  • Softmax: 用于多分类任务的输出层;将原始得分转换为总和为 1 的概率。

类比: 夜店的保镖。只有符合规则的“人”(信号)才能进入。

数据流

数据从 输入 → 隐藏层 → 输出 流动。

类比: 像水在管道中流动,在每个阶段都被过滤。

网络检查自己的错误并调整权重。

类比: 学习投篮——每一次投失都会让你稍微调整一下瞄准,直至命中。

神经网络之所以强大,是因为它们可以:

  • 在杂乱的数据中发现模式。
  • 通过练习自我改进。
  • 处理视觉、语音和决策等复杂任务。

类比: 正如人类通过经验学习,神经网络也从数据中学习。

示例应用

  • 图像识别: 在照片中识别猫。
  • 语言翻译: 将英文转换为法文。
  • 医疗健康: 根据扫描图预测疾病。

结束语

神经网络听起来可能让人望而生畏,但其实它们本质上只是披着决策灯泡外衣的数学。只要练习足够,它们几乎可以学习任何东西——就像我们一样。

如果你感兴趣,下一步可以尝试使用 TensorFlowPyTorch 等库在 Python 中构建一个简单的网络。当它第一次识别出模式时,即使是一个小小的网络也会让人觉得神奇。

Back to Blog

相关文章

阅读更多 »