在 NumPy、TensorFlow 和 PyTorch 中实现所有损失函数(深度学习) 本文讨论了深度学习中使用的所有常见损失函数,并在 NumPy、PyTorch 和 TensorFlow 中实现

在这里插入图片描述

内容

均方误差 (MSE) 损失
二元交叉熵损失
加权二元交叉熵损失
分类交叉熵损失
稀疏分类交叉熵损失
骰子损失
KL 散度损失
平均绝对误差 (MAE) / L1 损耗
胡贝尔损失

均方误差 (MSE) 损失 Mean Squared Error (MSE) Loss

均方误差 (MSE) 损失是回归问题中常用的损失函数,其目标是预测连续变量。损失计算为预测值和真实值之间的平方差的平均值。MSE损失的公式为:

MSE 损失 = (1/n) * sum((y_pred — y_true)²)

在哪里:

n 是数据集中的样本数
y_pred 是目标变量的预测值
y_true 是目标变量的真实值
MSE 损失对异常值很敏感,并且会严重惩罚大错误,这在某些情况下可能是不可取的。在这种情况下,可以使用其他损失函数,例如平均绝对误差 (MAE) 或 Huber 损失。

NumPy 中的实现

import numpy as np

def mse_loss(y_pred, y_true):
    """
    Calculates the mean squared error (MSE) loss between predicted and true values.
    
    Args:
    - y_pred: predicted values
    - y_true: 

猜你喜欢

转载自blog.csdn.net/iCloudEnd/article/details/132122537