240 发简信
IP属地:北京
  • Resize,w 360,h 240
    llm_finetune网页一键式大模型训练到服务的全流程平台

    [LLM Finetune 网页格式一键式大模型训练到服务的全流程平台,包括数据上传、微调训练、模型合并、模型部署服务等,无需python和sh...

  • Resize,w 360,h 240
    langchain-chatglm部署大模型chatglm2-6b测试

    langchain-chatglm6b git项目[https://github.com/chatchat-space/langchain-Ch...

  • Resize,w 360,h 240
    基于 PEFT 的高效 ChatGLM2-6B 微调

    参考 hiyouga/ChatGLM-Efficient-Tuning[https://github.com/hiyouga/ChatGLM-E...

  • Resize,w 360,h 240
    PaddleOCR docker模式

    PaddleCloud基于 Tekton[https://github.com/tektoncd/pipeline] 为OCR模型套件提供了镜像...

  • Resize,w 360,h 240
    百度飞桨的aistudio,部署glm2-6b推理测试

    一、环境准备 百度飞桨网址[https://aistudio.baidu.com/]相比其他可以免费试用的gpu环境,百度飞桨更为大方,提供了最...

  • 通过wget或curl命令行从 Google Drive下载数据

    本文介绍了通过wget和curl从Google Drive上下载文件的脚本。因为大量的数据集都存放在Google Drive上,而计算任务通常都...

  • git clone报错解决,failed to connect to 443 port

    报错: 配置代理解决本地有代理proxy,所以配置本地代理 之后重新git clone已经ok

  • 单机双卡3090指令精调训练chinese llama alpaca 7B

    大模型并不能很好的回答行业问题,需要用领域数据给模型做instruct tunning。 精调训练之前,已经完成了Chinese-Alpaca-...

  • 离线环境用docker部署Chinese-LLaMA-Alpaca 33B

    由于机器在客户环境,不能联外网,需要自己准备各种文件拷贝上传,比开放网络要更麻烦一些,记录下过程。 机器: 8卡A100(40GB)单机 doc...