Skip to main content

6.1.1 神经网络路线图:线性层、激活、损失、更新

神经网络不神秘。层先做加权求和,再用激活函数改变信号形状,训练时再调整权重以降低 loss。

先看流程

神经网络基础章节关系图

记住这个闭环:

输入 -> 加权求和 -> 激活 -> loss -> 梯度 -> 更新权重
第一层意思
神经元加权求和加偏置
激活函数ReLU 等非线性变化
前向传播计算预测
反向传播计算谁该为误差负责
优化器用梯度更新权重

跑一个神经元

创建 nn_first_loop.py,安装 torch 后运行。

import torch

x = torch.tensor([[1.0, -2.0, 3.0]])
weights = torch.tensor([[0.5], [-1.0], [0.25]])
bias = torch.tensor([0.1])

linear_output = x @ weights + bias
activated = torch.relu(linear_output)

print("linear_output:", round(linear_output.item(), 3))
print("relu_output:", round(activated.item(), 3))

预期输出:

linear_output: 3.35
relu_output: 3.35

如果线性输出是负数,ReLU 会把它变成 0。这个小门控让多层网络能表达非线性模式。

按这个顺序学

顺序阅读先抓住什么
16.1.2 从 ML 到 DLsklearn 之后发生了什么变化
26.1.3 神经元与激活加权求和、偏置、ReLU
36.1.4 前向与反向传播预测、loss、梯度
46.1.5 优化器SGD、Momentum、Adam 直觉
56.1.6 正则化控制过拟合
66.1.7 权重初始化稳定起点
76.1.8 可选历史背景backprop、CNN、RNN、Attention、Transformer 为什么出现

通过标准

能把一层解释成 input @ weights + bias,说清激活函数做什么,并把 loss、梯度、优化器连成一个训练闭环,就算通过。