2025年04月23日
种种迹象表明:“出口转内销”已是必然,外贸工厂转型也是必然,以前卖给老外的货,现在要卖给家人们啦。下为案例:(1)京东(2000亿计划),设立“出口转内销”专属频道,提供流量扶持、物流补贴、金融支持。(2)百度(AI扶持100万家企业),免费提供智能客服、AI营销工具,帮助外贸企业建独立站。
2025年04月13日
大家看到下面的广告,做微信流量主一天有大几百收益,是不是很心动呢?
如果大家相信他们上面的收益,就已经开始掉入坑中了:
首先,你可能要找开发微信小程序,我就是这样被骗入坑中的,骗人的就是图中的微信号。
他会告诉你目前微信小程序流量主有多么红利,每天会在朋友圈发收益图,你看着心动了,就已经掉入坑中了。在贴吧中,很多代理微信小程序的人,收取的费用从几百到上千各不等,此骗子收了我880元,他也不是开发者,只是一个代理,真正的开发者价格我目前也拿到了,可以向下大家公布,如果大家还是要进坑,希望第一步坑就少掉一点。
下面是开发者工作室做流量主的价格表,愿那些愿意去做流量主这坑的了解一下行情,我就是开始不了解行情,所以被骗了好几百。市面上无非都是这几种类型的小程序,会点技术的都可以自己搞,实在不想自己搞,就找开发者发两三百块帮你开发,总比找哪些无量代理人要好。
专注微信小程序搭建+运营热门小程序价目表:
打卡小程序 原价:300 代理价:240
成语小程序 原价:300 代理价:240
猜歌小程序 原价:300 代理价:240
抽奖小程序 原价:350 代理价:300
影视小程序 原价:400 代理价:340
养猫小程序 原价:500 代理价:440
以上全部一条龙搭建+开通流量主+运营资料+售后服务群+收益保障。
第二步大坑:骗你进入坑的人不会告诉你他是怎么赚到朋友发图的收益。这种显示的收益大概就两种,第一种就是PS图,也就是修改数字,显示有多
2025年02月22日
★ 我们平时使用的ChatGPT、kimi、豆包等Ai对话工具,其服务器都是部署在各家公司的机房里,如果我们有一些隐私数据发到对话中,很难保证信息是否安全等问题,如何在保证数据安全的情况下,又可以使用大预言模型,Ollma(哦拉玛)可以告诉你答案!
”
目录
1. Ollma 是什么?
2. 安装教程
2.1 首先去官网下载
2.2 下载好之后安装
2.3 测试一下
3. 导入开源Qwen 2.5 - 0.5B 大模型
3.1 去模型仓库搜索模型
3.2 加载模型
3.3 使用模型
4. 部署webUI可视化对话
这是一个保姆级的教程,从下载到成功运行Qwen2.5大模型,更适合没有玩过Ollma的小白宝宝哦~
image.png
1. Ollma 是什么?
★ 一句话介绍:一个可以让你在本地启动并运行大型语言模型的工具!
”
Ollma是一个开源的大模型服务工具,他可以让你在一行代码不写的情况下,在本地通过一条命令即可运行大模型。
Ollma会根据电脑配置,自动选择用CPU还是GPU运行,如果你的电脑没有GPU,会直接使用CPU进行运行(可能有点慢)
2. 安装教程
Ollma官网:[https://ollama.com/]
模型仓库:[https://ollama.com/library]
2.1 首先去官网下载
从主页点击下载,直接跳转到了当前系统所兼容的下载界面,点击download,一键下载
2.2 下载好之后安装
博主的电脑是Mac,下载好之后,直接把压缩包解压,然后移动到应用程序中即可,其他操作系统,参考这个文档:
Windows 下的安装与配置
Linux 安装Ollma
Docker 安装 Ollma
下载好之后,打开,当这个帅气的小羊驼显示在你的任务栏中的时候,说明已经启动成功了!
image.png
2.3 测试一下
打开命令行,输入ollama -h看到以下界面,就可以进行下一步,操作了~
image.png
3. 导入开源Qwen 2.5 - 0.5B 大模型
3.1 去模型仓库搜索模型
我们在上面提到的Ollma模型仓库中找到最新的千问大模型
点进去,界面如下:
3.2 加载模型
将上面的命令复制到命令行,回车执行!等待下载
image.png
等进度100%了,即可使用模型
3.3 使用模型
在命令行中,即可开启与千问大模型的对话,看到这里,是不是感觉很简单,快去点个赞!
输入/bye方可结束对话。
image.png
都看到这里了,点个赞再走吧!码字实属不易呀。
4. 部署webUI可视化对话
本文使用FastAPI 部署Ollma可视化页面,简单4步即可
1、克隆仓库
git clone https://github.com/AXYZdong/handy-ollama
克隆完成进入目标目录:
cd handy-ollama/notebook/C6/fastapi_chat_app
2、安装依赖
pip install -r requirements.txt
pip install 'uvicorn[standard]'
3、修改app.py 代码
输入vim websocket_handler.py命令(确保你在fastapi_chat_app目录下先)更改model代码
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import ollama
from fastapi import WebSocket
async def websocket_endpoint(websocket: WebSocket):
await websocket.accept()
user_input = await websocket.receive_text()
stream = ollama.chat(
model='qwen2.5:0.5b',
messages=[{'role': 'user', 'content': user_input}],
stream=True
)
try:
for chunk in stream:
model_output = chunk['message']['content']
await websocket.send_text(model_output)
except Exception as e:
await websocket.send_text(f"Error: {e}")
finally:
await websocket.clos