当前位置: 首页 > news >正文

Google机器学习实践指南(逻辑回归损失函数)

🔥 Google机器学习(25)-逻辑回归损失函数

Google机器学习(25)-逻辑回归损失函数


一、损失函数详解

▲ 对数损失函数

公式

Loss = -[y·log(y’) + (1-y)·log(1-y’)]

特点

  • 惩罚错误分类(预测概率偏离真实标签)
  • 凸函数保证全局最优解
  • 输出值范围:[0, +∞)

▲ 图1 不同训练时间下的损失变化

▲ 平方损失函数(L2 Loss)

公式
Loss = (y - y')²

特点

  • 对称惩罚预测偏差(离真实值越远惩罚越大)
  • 处处可导便于梯度计算
  • 对离群值敏感(平方放大误差)
  • 输出值范围:[0, +∞)

▲逻辑回归

  • 逻辑回归模型会生成概率。

  • 对数损失函数是逻辑回归的损失函数。

  • 逻辑回归被很多从业者广泛使用


二、正则化

1. 正则化类型

正则化在逻辑回归建模中极其重要。因为没有正则化的情况下,逻辑回归会不断促使损失在高维度空间内达到 0。
大多数逻辑回归模型会使用以下策略之一来降低模型复杂性:

类型公式作用适用场景
L1正则化λΣ|w|产生稀疏权重特征选择
L2正则化λΣw²限制权重幅度防止过拟合
早停法-提前终止训练计算资源有限


▲ 图2 不同正则化权重的对损失影响


三、Python实战示例

# 导入库
from sklearn.linear_model import LogisticRegression
from sklearn import datasets# 加载数据
iris = datasets.load_iris()
X = iris.data[:, [2,3]]  # 选择花瓣长度和宽度
y = iris.target# 创建模型(带L2正则化)
model = LogisticRegression(C=1000.0,           # 正则化强度的倒数random_state=0,     # 随机种子penalty='l2'        # L2正则化
)# 训练模型
model.fit(X, y)

# 技术问答 #

Q:何时不宜使用平方损失?

A:数据含大量离群值时建议改用Huber损失

Q:为什么回归问题常用平方损失?

A:其解等价于最大似然估计下的最优解

http://www.lqws.cn/news/546481.html

相关文章:

  • RabitQ 量化:既省内存又提性能
  • 华为云Flexus+DeepSeek征文 | 基于华为云ModelArts Studio平台搭建AI Markdown编辑器
  • 【iSAQB软件架构】四大架构视图利益相关者
  • 【开源项目】「安卓原生3D开源渲染引擎」:Sceneform‑EQR
  • 机器学习6——线性分类函数
  • PHP「Not enough Memory」实战排错笔记
  • 小程序 API 开发手册:从入门到高级应用一网打尽
  • 基于[coze][dify]搭建一个智能体工作流,抓取热门视频数据,自动存入在线表格
  • Python打卡:Day38
  • 华为数通认证:适合谁的技术进阶之路?
  • 基于MySQL的分布式锁实现(Spring Boot + MyBatis)
  • 【数据分析,相关性分析】Matlab代码#数学建模#创新算法
  • 【C语言】知识总结·指针篇
  • 关于SAP产品名称变更通知 SAP云认证实施商工博科技
  • 动态控制click事件绑定
  • H.264中片数据分割(Slice Data Partitioning)介绍
  • Decoder-only PLM GPT1
  • c++异常
  • LINUX625 DNS反向解析
  • gemini-cli 踩坑实录
  • Windows VMWare Centos环境下安装Docker并配置MySql
  • PART 7 视频
  • web布局25
  • iOS打包流程中的安全处理实践:集成IPA混淆保护的自动化方案
  • 消息队列的网络模型详解:IO多路复用、Reactor模型、零拷贝
  • 一键获取服务器硬件脚本:CPU/内存/磁盘/RAID检测脚本详解
  • 电子行业 MES 系统:生产管理的智能引擎
  • Minio的扩容
  • 【docker】docker run参数说明
  • Imbalanced-learn 5. Ensemble of samplers