Ollama 安装
- 安装ollama
官方网站:https://ollama.com/download
2. 安装成功
3. 运行模型
模型:https://ollama.com/library
运行:
ollama run llama3.2:3b
Mac 、Linux 版本安装类似。
Open-WebUI界面安装
openwebui官网:https://docs.openwebui.com/Open WebUI is an extensible, feature-rich, and user-friendly self-hosted AI interface designed to operate entirely offline. It supports various LLM runners, including Ollama and OpenAI-compatible APIs.https://docs.openwebui.com/
github地址:
https://github.com/open-webui/open-webuiUser-friendly AI Interface (Supports Ollama, OpenAI API, ...) - open-webui/open-webuihttps://github.com/open-webui/open-webui
使用docker安装:
具体安装细节可参考github中readme说明,或者官方文档🏡 Home | Open WebUI
docker run -d --network=host --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
启动后,浏览器访问:http://127.0.0.1:8080/
进行注册,所有数据都保存到本地。第一个注册用户为管理员账户,可以对其他用户进行管理,设置权限等操作。
可进行设置
设置外部链接:本地llama http://127.0.0.1:11434/v1/models
选择模型
开始对话
llama其他应用
- ollama支持Llama3.2-vision多模态大模型轻松实现监控找人!
ollama支持Llama3.2-vision多模态大模型轻松实现监控找人!重磅分享:详细讲解提示词工程+视觉大模型实现视频目标查找!无需高端显卡,本地运行流畅_哔哩哔哩_bilibili🔥🔥🔥视频简介:🚀本期视频详细演示了如何在Ollama平台上使用全新多模态模型Llama3.2-vision,通过简单的Python代码和FastAPI框架,轻松实现视频目标检测功能。🚀只需输入目标人物特征,系统会逐帧分析视频,精准识别并提供置信度和描述 。这项技术不仅能识别目标人物,还可帮助查找丢失宠物 。🚀最后,视频详细演示了Llama3.2的各项功能及提示词工程 。🔥🔥🔥时, 视频播放量 4474、弹幕量 1、点赞数 188、投硬币枚数 63、收藏人数 487、转发人数 68, 视频作者 AI超元域, 作者简介 AI已来!AI超元域开源项目作者。,相关视频:本地部署Molmo-7B多模态大模型媲美Llama3.2-90B!全方位测评:图像识别、视频分析,打造多模态视觉AI助手!轻松实现监控视频快速找人,安装Ollama+CosyVoice打造流式智能语音秘书,流式生成语音大大缩短了等待时间,提升用户体验,Qwen2-VL-7B实现精准pdf转markdown,从原理、代码实现、存在问题以及优化方向全流程讲解,Windows笔记本本地微调训练Qwen2大模型(非wsl),炼制属于自己的无审查(nsfw)大模型,Unsloth,Python3.11,fineTuning,用 ollama 跑多模态大模型 - open webui + ollama 三分钟搞定 llava 1.6,超越GPT-4o视觉能力?本地部署Qwen2-VL多模态视觉大模型!超越人类的视觉理解能力,精准识别X光片判断骨折、CT扫描检测癌症,还能识别手写体汉字与英文!,吴恩达同步最新AI课,第56讲:Llama 3.2多模态综合开发--Introducing Multimodal Llama 3.2,本地跑大模型,需要什么配置,Meta最强开源视觉大模型-Llama3.2-90B Vision!视觉能力大幅提升!轻松实现监控找人,目标人物精准锁定!视觉大模型促进安防领域革命性突破!,【喂饭教程】20分钟学会微调大模型Qwen2,环境配置+模型微调+模型部署+效果展示详细教程!草履虫都能学会~https://www.bilibili.com/video/BV1T7DYYMESA/?spm_id_from=333.337.search-card.all.click&vd_source=4d4708d19001beb8cfc082c05f614f4d
- Meta最强开源视觉大模型-Llama3.2-90B Vision!视觉能力大幅提升!轻松实现监控找人
Meta最强开源视觉大模型-Llama3.2-90B Vision!视觉能力大幅提升!轻松实现监控找人,目标人物精准锁定!视觉大模型促进安防领域革命性突破!_哔哩哔哩_bilibili🔥🔥🔥视频简介:🚀【AI视觉突破】Meta最新多模态模型Llama3.2震撼发布!90B参数秒杀同类,手写公式识别、稀有动物辨识样样精通。🚀本期视频为大家深度解析Meta最新发布的开源多模态大模型Llama3.2系列,特别聚焦90B参数的视觉模型。🚀视频内容:1️⃣Llama3.2系列模型概述:从1B到90B,覆盖本地部署到云端应用2️⃣Llama3.2-90B Vision模型全面测, 视频播放量 7396、弹幕量 5、点赞数 170、投硬币枚数 43、收藏人数 379、转发人数 39, 视频作者 AI超元域, 作者简介 AI已来!AI超元域开源项目作者。,相关视频:本地部署Molmo-7B多模态大模型媲美Llama3.2-90B!全方位测评:图像识别、视频分析,打造多模态视觉AI助手!轻松实现监控视频快速找人,超越GPT-4o视觉能力?本地部署Qwen2-VL多模态视觉大模型!超越人类的视觉理解能力,精准识别X光片判断骨折、CT扫描检测癌症,还能识别手写体汉字与英文!,炸裂!💥最强开源模型新王通义千问2.5 72B被我用4GB老显卡本地跑通了!,Molmo:基于Qwen2-72B再训练的一系列开源多模态模型,在人工评估中排名第二,仅略低于 GPT-4o [完全开源],Llama-3.2 (1B, 3B, 11B, 90B) : 有史以来最糟糕的新LLMs?(全面测试并击败“无”),本地跑大模型,需要什么配置,YOLO V10 一键整合包 解压即用 本地视觉识别大模型 一键本地部署 有没有显卡都能玩,小模型的时代终于来了,1.5B参数量模型也能轻松构建GraphRAG,Ollama+Gemma2:9b本地开源大模型输出OpenAI兼容API作为本地翻译引擎工作流|Pot|OpenAI-Translator|沉浸式翻译|喂饭教程,双4090部署qwen72b大模型 每秒150tokenshttps://www.bilibili.com/video/BV1Vc2SYJEG4/?spm_id_from=333.999.0.0&vd_source=4d4708d19001beb8cfc082c05f614f4d