记录时代的洪流下,自我转变、家庭规划的十年。
儿子问我:"像今天一样的高温天,当年没有空调,怎么过啊?" 我不禁回想起童年的夏日, 那时候没有空调也没有风扇,夏日都是姥娘手里的蒲扇,扇啊扇啊,伴我入睡。如今,姥娘已经99岁高龄,身体依然硬朗,只是记忆力大不如前,已经叫不出我的名字。 我小的时候,父母工作繁忙,我和弟弟被分别送回两边的农村老家生活。虽然我是所谓的城市孩子,但直到上学前,我的整个童年都是在老家度过的,与姥娘朝夕相处。 姥姥虽然没有文化,在某些观念上也有她的局限。但是在这个大家庭的历史记忆中,她和姥姥娘两个女人挑起了整个家庭的重担。姥爷常年在县里工作,家里的大小事务、生产队的劳动工分都落在了她们肩上。虽然生活压力很大,但是她们让所有的孩子都完成了高中以上的教育。 我想,一个家庭一代人的飞黄腾达可能是偶然的,但每一代人在自己的时代中努力进步,才是家庭不断向上的必然。我的妈妈毕业后留在了市里,迈出了到城市的一步,为我创造了更好的教育环境。如今,姥娘的子女们都有不错的生活条件,作为回报,她的晚年生活也比老家的许多老人要好得多。 我每隔一两个月就会回去看看。人老了最怕的就是孤独,姥娘曾经的朋友、邻居都已相继离
这个周末狂刷了三部电影,谈判专家一群香港的老年戏骨演绎的电影,虽然有个别的剧情下次整体还是非常不错的,值得一看。 这部韩国电影前前后后看了一个多月,对于这种温情剧我总是看不进去,当时老婆看的还挺受触动的。周末抱着看完清理空间的思想把它看完了,还可以。避免自杀总是在现在的环境下还是积极的。 作为豆瓣评分党,看到这部片子分数不低就下了下来,只是情节低幼被老婆鄙视,不过强迫症作祟,还是过后一个人看完了。
当此邮件翻译成您帐号的主要语言后,会立即向您发送该语言版本的邮件副本。 我们预计,此流程需要3个工作日的时间。亲爱的双子座API开发人员,从2024年5月14日开始,启用云计费的项目将仅为Gemini API请求计费。这是从最初宣布的2024年5月2日推迟的。我们知道这可能会对您组织的规划产生影响,因此我们在下面提供了详细信息来帮助您。注意:此提醒适用于Google AI for Developers的Gemini API(在云控制台中称为生成语言API),与Vertex AI Gemini API无关。你需要知道的2024年5月2日,以下更改将生效:管理您使用Gemini API和Google AI Studio的Gemini API服务条款将更新。 预览新条款。2024年5月14日,以下更改将生效:将推出Gemini API的现收现付定价。您仍然不会因直接在Google AI Studio中与Gemini模型的交互而被收取费用。如果您从禁用计费的项目中使用Gemini API,您仍然可以免费使用Gemini API,而无需我们的付费计划中提供的福利。如果您从已启用计费的项目中使用G
下载驱动和卸载、禁用自带驱动程序 1.1 查看系统显卡型号 lspci | grep -i nvidia 1 1.2 从NVIDIA官网下载相应驱动 官网网址:https://www.nvidia.com/Download/index.aspx?lang=en-us1.3 卸载Ubuntu自带的驱动程序 sudo apt purge nvidia* 1 1.4 禁用自带的nouveau nvidia驱动 打开/etc/modprobe.d/blacklist.confsudo vi /etc/modprobe.d/blacklist.conf 1 如果提示没有vi就执行下面命令安装一下:sudo apt install vi 1 在blacklist.conf文件中最后添加如下内容blacklist nouveau options nouveau modeset=0 1 2 然后保存退出。1.5 更新 sudo update-initramfs -u 1 1.6 重启电脑 sudo reboot 1 1.7 查看是否将自带的驱动屏蔽 lsmod | grep nouveau 1 没有
执行:ollama run gemma2:27b Error: llama runner process has terminated: signal: aborted (core dumped) CUDA error: CUBLAS_STATUS_NOT_INITIALIZED current device: 0, in function cublas_handle at /go/src/github.com/ollama/ollama/llm/llama.cpp/ggml-cuda/common.cuh:826 cublasCreate_v2(&cublas_handles[device]) GGML_ASSERT: /go/src/github.com/ollama/ollama/llm/llama.cpp/ggml-cuda.cu:100: !"CUDA error"解决方式: curl -fsSL https://ollama.com/install.sh | shDownloading ollama... ####################
2024年母亲节和老婆定下了更换电车的决定。一周后的517电信日最终完成了车辆的置换,和飞度(小白)再见了。 相伴9年,内心不舍,记录下她为家作出贡献的九年。 到来2015年还是我们分隔两地的状态,因为我在济南接送孩子,老婆在老家的公司刚刚成立,位于郊区通勤不便,决定再买一辆车。当时因为资金问题,最终选定了7万元左右的飞度,开始的考虑只是市内通勤。 因为工作原因老婆定期记录下了车辆的公里数,看到了“小白”每周的奔波。 守候虽然两地分居,但是老婆坚持每个周末开车往返400公里回来济南家中,所以在儿子成长的过程中,我们和别的家庭没有什么不同,甚至家庭关系更加紧密。 在一周的工作通勤之后,周五晚上带着一车的食材回来,然后静静地在楼下等到周一凌晨,陪着老婆回到工作单位。每个周末、每个节假日从未中断,当时的济青高速只有两车道,堵车几个小时是经常的事情。 规划2017年陪着我们跑了潍坊若干楼盘,买入、卖出的收益让我们在儿子教育规划上也增强了信心。 工作日的通勤、每个周末的奔波,在三周年的时候,她已经奔跑了6万多公里。用老婆的话说小白的辛劳超出的了养尊处优只是负责接送儿子的CRV。 团聚2018年
人活到一定年纪,最大的财富不是丰厚的存款,体面的工作。而是思考的习惯,坚韧的心态,以及随时都饱满的精力~这个世上只有一种破产,那就是精神储蓄的清零….
前言在本地部署微调模型的过程中,遇到了严重的挫折,为了追求性价比购买的AMD显卡,使用训练好的模型还好,但是尝试在本地部署微调环境时才发现问题比较多。 在支持的生态方面远远落后于NVIDIA显卡,英伟达的cuda实在是太方便了,近乎傻瓜化的安全就可以使用,而AMD的ROCm安装过程中各种报错,查找资料修正颇为费劲。关键是我还准备了一个Ubuntu的24.04的新系统,遇到问题后可供借鉴的资料太少。 费尽力气安装完成后,发现AMD的官网中ROCm不支持我的这个消费级显卡。 再次回首看了一眼NVIDIA的显卡价格,实在超出我的预算。 多重打击下决定使用网络算力进行模型微调,在众多的选择中google的Colab服务,为什么选择Colab?因为免费,其它的都不是考虑的问题了。 暂时放弃本地部署后,网络微调让我重拾信心,可以在完全免费的情况下微调出有一个自己“调教”的大模型出来。前提是你的数据不涉及隐私和数据安全的内容。 部署步骤1. 打开项目unslothhttps://github.com/unslothai/unsloth 选择Llama3进行训练,一键引导到google的Colab上进
概要今天安装了一个个人的知识库,使用的Maxkb这个开源的知识软件。为了随时可以获取访问,同时兼顾内部部署的安全性,选择了家中Nas部署的方式。安装过程 在群辉nas上打开docker,搜索Maxkb这个开源项目 下载并配置。需要修改有两个地方,端口我选择使用4444。创建一个工作目录并映射到/var/lib/postgresql/data 创建完成以后就可以通过 http://ip:4444 进行访问,默认用户名: admin 默认密码: MaxKB@123.. 登录后首先需要修改密码。 创建知识库,我这里创建了两个,一个是我的博客地址,配置后会自动获取博客的内容并加入知识库中。 另外一个是本地文档构建的知识库。 5. 然后配置应用。选择前面配置的知识库后,配置AI模型。我这里使用的是通过openai接口转换后的worker AI,因为需要重点处理中文文档,选择使用qwen阿里的大模型。其它地方暂时保留默认值。 6. 看看实际使用效果。
通过自己消费级显卡安装了一个本地lama3大模型,同时配置了open webui的交互界面。 安装过程非常简单,按照操作文档使用docker方式一条命令就可以搞定了。 安装后的open webui界面: 后端接入了One API的接口聚合服务,上游配置了cloudflare和groq两个AI服务。 加上本地部署的lama3 8B、70B两个服务,组成了远程+本地的AI的API接口服务。
walker
万事随性而为,因好而研,因趣而学,从心所欲。脱离依赖,谋划将来,避免经济之险,迈向希望之光。