Java的Stream流
Java的Stream流 [讲透JAVA Stream的collect用法与原理,远比你想象的更强大_stream.collection-CSDN博客](https://blog.csdn.net/veezean/article/details/125857074?ops_request_misc={"request_id"%3A"172258578116800227423214"%2C"scm"%3A"20140713.130102334.."}&request_id=172258578116800227423214&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~top_positive~default-1-125857074-null-null.142^v100^pc_search_result_base8&utm_term=Java stream collect&s...
并发:Java的Future和FutureTask
并发:Java的Future和FutureTask Future类的作用 Future 类是异步思想的典型运用,主要用在一些需要执行耗时任务的场景,避免程序一直原地等待耗时任务执行完成,执行效率太低。具体来说是这样的:当我们执行某一耗时的任务时,可以将这个耗时任务交给一个子线程去异步执行,同时我们可以干点其他事情,不用傻傻等待耗时任务执行完成。等我们的事情干完后,我们再通过 Future 类获取到耗时任务的执行结果。这样一来,程序的执行效率就明显提高了。 这其实就是多线程中经典的 Future 模式,你可以将其看作是一种设计模式,核心思想是异步调用,主要用在多线程领域,并非 Java 语言独有。 在 Java 中,Future 类只是一个泛型接口,位于java.util.concurrent包下,其中定义了 5 个方法,主要包括下面这 4 个功能: 取消任务; 判断任务是否被取消; 判断任务是否已经执行完成; 获取任务执行结果。 源码 123456789101112131415// V 代表了Future执行的任务返回值的类型public interface Future&l...
Java线程、多线程与线程池总结
Java线程、多线程与线程池总结 Java创建线程的三种方法 继承Thread类创建线程类 (extends) 定义Thread类的子类,并重写该类的run方法,该run方法的方法体就代表了线程要完成的任务。因此把run()方法称为执行体(线程体)。 创建Thread子类的实例,即创建了线程对象。 调用线程对象的start()方法来启动该线程。 123456789101112131415public class CreateThreadByExtendThread extends Thread{ int i = 0; @Override public void run(){ for (;i<100;i++){ System.out.println(Thread.currentThread().getName()+":"+i); //获取本线程的名称 } } public static void main(Str...
法律垂类大模型DISC-LawGPT的部署运行和对比
法律垂类大模型DISC-LawGPT的部署运行和对比 部署和运行 123456789101112131415# 部署git clone https://github.com/FudanDISC/DISC-LawLLM.gitcd DISC-LawLLMpip install -r requirements.txtmkdir ShengbinYuecd ShengbinYuegit clone https://hf-mirror.com/ShengbinYue/DISC-LawLLMcd ..mkdir cache# 遇到报错 [Errno 13] Permission denied: '/data/.cache/huggingface/modules/transformers_modules/DISC-LawLLM'export HF_HOME="~/verticalLLM/lzjr/DISC-LawLLM/cache" # 如果遇到CUDA error: out of memory 用 watch -n 0.5 nvidia-smi查看显...
医疗垂直领域大模型WiNGPT2的部署和性能对比
医疗垂直领域大模型WiNGPT2的部署和性能对比 WiNGPT2部署和运行 123456git clone https://github.com/winninghealth/WiNGPT2.gitcd WiNGPT2mkdir winninghealthcd winninghealthgit clone https://hf-mirror.com/winninghealth/WiNGPT2-7B-Chatcd .. 若没有以下这三个库,则安装gradio、tiktoken、pip install einops flash_attn 123pip install gradiopip install tiktokenpip install einops flash_attn 选一个目录作为cache(前提是这个目录已经存在且有权限读写) 12# 遇到报错 [Errno 13] Permission denied: '/data/.cache/huggingface/modules/transformers_modules/WiNGPT2-7B-Chat'expor...
Java面试汇总
Java面试汇总 项目问题 数联网交换机 Netty核心面试题20连问,由浅入深 助你轻松吊打面试官_netty面试题-CSDN博客 Tomcat与Netty比较_netty和tomcat-CSDN博客 programmer club 后端微服务-programmer-club项目的设计与实现心得 | Roger-Lv’s space 项目介绍 大家在求职的过程中,免不了要进行面试题的学习,网上的pdf 很多,大家一般都是基于此来进行背诵或者收集,重复的题目及答案的质量参差不齐,这个个人项目,做一个线上化的面试题网站,来进行资源整合。学习面试的同时,将所学习的技术结合到一起。我们采用的是主流的微服务架构 alibaba,配合主流的中间件,前端主要是以 react 配合 antdesiqn 来进行,以C端为主的一个网站形式。叫他programmer_club,整体为一个社区的形式,主要实现的功能有刷题,练题,交流群,模拟面试。我在这里面设计技术选型,架构设计,功能的设计及落地。其中刷题模块、登录注册鉴权等模块以及优化等是我来进行主要落地实现的。 使用DDD(领域驱动设计)的原因...
线程池数量到底如何配置?
线程池数量到底如何配置? 可能很多人都看到过一个线程数设置的理论: CPU 密集型的程序-核心数 +1 1/0 密集型的程序-核心数*2 不会吧,不会吧,真的有人按照这个理论规划线程数? 线程数和CPU利用率的小测试 抛开一些操作系统,计算机原理不谈,说一个基本的理论(不用纠结是否严谨,只为好理解): 一个CPU核心,单位时间内只能执行一个线程的指令那么理论上,我一个线程只需要不停的执行指令,就可以跑满一个核心的利用率。 来写个死循环空跑的例子验证一下: 1234567public class CPUUtilizationTest{ public static void main(String[] args){//死循环,什么都不做 while(true){ } }} 测试CPU:6核心12线程 现在的CPU利用率: 从图上可以看到,3号核心利用率已经被跑满了 基于上面的理论,多开几个线程试试呢? 123456789101112public class CPUUtilizationTest{ ...
利用ollama一键式部署SoulChat和性能对比
利用ollama一键式部署SoulChat和性能对比 scutcyr/SoulChat: 中文领域心理健康对话大模型SoulChat (github.com) liutechs/soulchatfa (ollama.com) 部署过程 采用ollama进行一键式部署: 1234ssh bjtc@162.105.16.236password: 000000curl -fsSL https://ollama.com/install.sh | sh //下载ollmaollama run liutechs/soulchatfa //利用ollma下载SoulChat 运行和对比 失恋 SoulChat: Kimi: 2. 宿舍关系 SoulChat: Kimi: 期末考试 SoulChat Kimi: 科研压力 SoulChat Kimi: 实习工作 SoulChat Kimi:
RPC和Http请求的区别
RPC和Http请求的区别 看这个:RPC简介及框架选择,RPC与REST的区别_rpc控制client, client返回主机测试结果和状态-CSDN博客 RPC、REST API深入理解_rpc与普通api接口的区别-CSDN博客 弄清楚这些接口(http,https,api,RPC,webservice,Restful api ,OpenAPI)_rpc接口和api接口-CSDN博客 restful API、SOAP、RPC的区别_soap api和restful api优缺点-CSDN博客
垂类心理健康咨询大模型MeChat的部署和性能对比
垂类心理健康咨询大模型MeChat的部署和性能对比 部署和运行 qiuhuachuan/smile: SMILE: Single-turn to Multi-turn Inclusive Language Expansion via ChatGPT for Mental Health Support (github.com) 1234567891011121314git clone https://github.com/qiuhuachuan/smile.git //如果网络不行就git clont到本地再scp到服务器 data目录可以忽略掉curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh //rust complier 然后要重新打开终端 已有rust complier即忽略这条命令RUSTUP_TOOLCHAIN=1.72.0 pip install tokenizers==0.13.2 /*执行上面这条命令,如果不这样做会报错:报错:ERROR: Could not build...