当前位置: 首页 > news >正文

docker+n8n的工作流中无法使用本地ollama服务的问题

使用docker创建n8n服务后,工作流中不想用大模型付费API测试,想用本地大模型来跑,刚好电脑上装了ollama,就试了下添加ollama节点来替代大模型付费API,结果就遇到了以下问题
ollama正常运行中ollama正常运行中
在这里插入图片描述
在这里插入图片描述
但是工作流会卡在这,提示n8n无法访问http://localhost:11434,查了大量资料才最终解决

问题就是:在 Docker 环境中,N8N 容器访问宿主机服务不能直接使用localhost或127.0.0.1。对于 Windows 系统,应使用host.docker.internal来代替localhost,所以在 N8N 工作流中,应将 Ollama 服务地址设置为http://host.docker.internal:11434。

所以,将http://localhost:11434改为http://host.docker.internal:11434就可以了
在这里插入图片描述

http://www.lqws.cn/news/555715.html

相关文章:

  • InnoDB的undo日志涉及的页结构
  • mmap映射物理内存之一cache与lock
  • GeoTools 结合 OpenLayers 实现属性查询
  • Stable Diffusion入门-ControlNet 深入理解 第四课:风格迁移与重绘控制模型——让AI也有“艺术天赋”!
  • Git安装避坑指南
  • 【编程实践】利用python在Blender生成三维模型
  • Kafka 消费者重平衡问题排查与优化实践
  • 在单片机中如何实现一个shell控制台
  • 阿里云-arms监控
  • zookeeper Curator(1):认识zookeeper和操作命令
  • 华为云鸿蒙应用入门级开发者认证 实验部分题目及操作步骤
  • 【龙泽科技】新能源汽车故障诊断仿真教学软件【吉利几何G6】
  • Qt:QCustomPlot库的QCPAxis
  • 第一章 城镇道路工程 1.5 安全质量控制
  • python解释器 与 pip脚本常遇到的问题汇总
  • PYTHON从入门到实践7-获取用户输入与while循环
  • 医疗标准集中标准化存储与人工智能智能更新协同路径研究(上)
  • Next.js实战:AI两小时开发文档社区
  • pytest 中的重试机制
  • 分布式电源采集控制装置:江苏光伏电站的“智能调度中枢
  • 【Java--SQL】${}与#{}区别和危害
  • 如何关闭win更新-随笔11
  • 稳定币独角兽:Circle
  • 零基础langchain实战二:大模型输出格式化成json
  • 【SpringSecurity鉴权】
  • 深入剖析AI大模型:Dify的介绍
  • centos指令
  • 利用GPU加速TensorFlow
  • 一文读懂Kubernetes(K8s)
  • 设计模式 (四)