铁路校友博客-卢松松的追随者

一个互联网十五年的老站长-15years weber 铁路校友AIO/P Good Luck To You!

2023年最值得去做的项目集合, 收藏了119个手赚副业博客【收藏】

2022年手机赚钱排名靠前的APP,下载按提示都可以提到10~100元不等

铁路校友博客是一个13年创建的个人博客

铁路高校培养了众多顶尖人才。

其杰出校友中,茅以升和詹天佑堪称标杆:

茅以升是“中国现代桥梁之父”,主持设计钱塘江大桥,并推动抗战时期学校的存续,其教育理念深刻影响交大发展;

詹天佑主持修建中国首条自主铁路京张铁路,奠定了中国铁路事业的基础。

此外,竺可桢(物候学奠基人)、严东生(材料科学先驱,双院院士)、施仲衡(中国地铁奠基人)

分别在气象、无机材料、城市轨道交通领域成就卓著。

王梦恕(隧道工程专家)、何华武(高铁总工程师)作为院士,分别引领地下工程与高铁技术创新。

林同炎(“预应力混凝土先生”)和方俊(地图投影学开拓者)则在土木工程与测绘领域开创国际先河。

刘恢先作为地震工程学奠基人,构建了中国抗震研究体系。

值得一提的是,1933届土木系一个班级更涌现出严恺、张维等四位院士,成为教育史上的奇迹。


实战:

快手极速版邀请码是976 779 121 邀请码在哪填?

分发到快速极速版邀请码助手


标记


本人从2011年开始网络创业, 自学 建站,7年手机副业经验。网站内容:本站是本人记录生活感悟,读书学习的网站,希望能对大家有所帮助。网名:光影 职业:SEO营销顾问籍贯:四川广安,现定居成都 电话:个V:wx374241337 邮箱:374241337@qq.com 

【Ai教程】Ollma安装 | 0代码本地运行Qwen大模型

★ 我们平时使用的ChatGPT、kimi、豆包等Ai对话工具,其服务器都是部署在各家公司的机房里,如果我们有一些隐私数据发到对话中,很难保证信息是否安全等问题,如何在保证数据安全的情况下,又可以使用大预言模型,Ollma(哦拉玛)可以告诉你答案! ” 目录 1. Ollma 是什么? 2. 安装教程 2.1 首先去官网下载 2.2 下载好之后安装 2.3 测试一下 3. 导入开源Qwen 2.5 - 0.5B 大模型 3.1 去模型仓库搜索模型 3.2 加载模型 3.3 使用模型 4. 部署webUI可视化对话 这是一个保姆级的教程,从下载到成功运行Qwen2.5大模型,更适合没有玩过Ollma的小白宝宝哦~ image.png 1. Ollma 是什么? ★ 一句话介绍:一个可以让你在本地启动并运行大型语言模型的工具! ” Ollma是一个开源的大模型服务工具,他可以让你在一行代码不写的情况下,在本地通过一条命令即可运行大模型。 Ollma会根据电脑配置,自动选择用CPU还是GPU运行,如果你的电脑没有GPU,会直接使用CPU进行运行(可能有点慢) 2. 安装教程 Ollma官网:[https://ollama.com/] 模型仓库:[https://ollama.com/library] 2.1 首先去官网下载 从主页点击下载,直接跳转到了当前系统所兼容的下载界面,点击download,一键下载 2.2 下载好之后安装 博主的电脑是Mac,下载好之后,直接把压缩包解压,然后移动到应用程序中即可,其他操作系统,参考这个文档: Windows 下的安装与配置 Linux 安装Ollma Docker 安装 Ollma 下载好之后,打开,当这个帅气的小羊驼显示在你的任务栏中的时候,说明已经启动成功了! image.png 2.3 测试一下 打开命令行,输入ollama -h看到以下界面,就可以进行下一步,操作了~ image.png 3. 导入开源Qwen 2.5 - 0.5B 大模型 3.1 去模型仓库搜索模型 我们在上面提到的Ollma模型仓库中找到最新的千问大模型 点进去,界面如下: 3.2 加载模型 将上面的命令复制到命令行,回车执行!等待下载 image.png 等进度100%了,即可使用模型 3.3 使用模型 在命令行中,即可开启与千问大模型的对话,看到这里,是不是感觉很简单,快去点个赞! 输入/bye方可结束对话。 image.png 都看到这里了,点个赞再走吧!码字实属不易呀。 4. 部署webUI可视化对话 本文使用FastAPI 部署Ollma可视化页面,简单4步即可 1、克隆仓库 git clone https://github.com/AXYZdong/handy-ollama 克隆完成进入目标目录: cd handy-ollama/notebook/C6/fastapi_chat_app 2、安装依赖 pip install -r requirements.txt pip install 'uvicorn[standard]' 3、修改app.py 代码 输入vim websocket_handler.py命令(确保你在fastapi_chat_app目录下先)更改model代码 #!/usr/bin/env python # -*- coding: utf-8 -*- import ollama from fastapi import WebSocket async def websocket_endpoint(websocket: WebSocket): await websocket.accept() user_input = await websocket.receive_text() stream = ollama.chat( model='qwen2.5:0.5b', messages=[{'role': 'user', 'content': user_input}], stream=True ) try: for chunk in stream: model_output = chunk['message']['content'] await websocket.send_text(model_output) except Exception as e: await websocket.send_text(f"Error: {e}") finally: await websocket.close() 4、运行模型 输入命令: uvicorn app:app --reload 浏览器打开:[http://127.0.0.1:8000] 即可开始对话: https://zhuanlan.zhihu.com/p/5558002022

微信小程序2024

2024年11月4日彻底进入运营阶段。

<< 1 2 3 > >>

Powered By Z-BlogPHP 1.7.3

关于我们:本人从2010年开始网络创业, 自学 建站,8年手机副业经验。网站内容:本站是本人记录生活感悟,读书学习的网站,希望能对大家有所帮助。网名:光影 职业:SEO营销顾问籍贯:四川广安,现定居成都 电话:个V:wx374241337 邮箱:374241337@qq.com 【腾讯云】轻量新用户上云福利,2核2G4M 低至 65元/年 , 超大容量云硬盘 0.5折起!