以下是本人AI 系列文档目录,欢迎大家查阅和参与讨论。 Ollama 服务Docker部署简明教程[//www.greatytc.com/p/4f48bcce734...

以下是本人AI 系列文档目录,欢迎大家查阅和参与讨论。 Ollama 服务Docker部署简明教程[//www.greatytc.com/p/4f48bcce734...
前言 在CPU环境使用vLLM推理框架会明显比GPU缓慢的多。但是CPU也是有很大的优化空间的。 本篇为大家带来vLLM CPU推理的优化配置方式。 vLLM参数 --ten...
多目标求解会筛选出一个相对较优的解的集合,在这个集合里就要用到pareto找出相对优的解或者最优解。 多目标优化问题的数学模型一般可以写成如下形式: fig 2表示n个目标函...
前言 在MCP 简介和使用[//www.greatytc.com/p/51947e68a690]一文中我们了解了如何编写自己的MCP服务和在Langchain中调用...
MCP简介 MCP(Model Context Protocol) 是由 Anthropic 公司提出并开源的一个标准协议,旨在解决大型语言模型(LLMs)与外部数据源和工具...
问题 HBase Shell使用了Ruby脚本编写。HBase Interpreter使用了HBase的Ruby脚本,自带默认的jruby解析器对HBase 2.x中的Rub...
Flink 使用介绍相关文档目录 Flink 使用介绍相关文档目录[//www.greatytc.com/p/74f1990d047c] 前言 本文为大家分享博主在...
简介 vLLM是生产级别的大模型推理服务。能够发挥出较高硬件配置的性能。适用于高并发等负载较重的场景。相比之下Ollama是一个本地化的大模型服务。适用的场景为轻量级应用或个...
版权声明:本文为博主原创文章,未经博主允许不得转载。//www.greatytc.com/p/34dc6412de30 一、前言 网上关于opeldap ha的配置...
前言 Kyuubi 1.9.2 on Yarn模式官方支持Spark、Flink和Hive引擎。本片分别介绍它们的部署方式。 环境信息 Kyuubi 1.9.2 Spark ...
简介 Ollama是一个本地部署大语言模型服务的工具。支持命令行(CLI)和Rest接口访问。可作为智能体应用的基座服务。 最简单便捷的部署Ollama方式为使用Docker...
Flink源码分析系列文档目录 请点击:Flink 源码分析系列文档目录[//www.greatytc.com/p/d4a372809e3d] 前言 Flink 2...
前言 CHESS即CONTEXTUAL HARNESSING FOR EFFICIENT SQL SYNTHESIS。是斯坦福大学提出的一种自然语言转化为SQL的方法。 本篇...
前言 django-auth-ldap能够为Django提供LDAP登录支持。只需要少量配置,无需改变Django的认证逻辑。对已有项目侵入性很小,使用起来非常方便。 本篇为...
简介 Langchain是一个简单易用的LLM应用开发框架。借助Langchain,我们可以很容易的将LLM的能力整合到自己的程序中。Langchain还能够将LLM和外部计...
系统和JVM级别优化 降低vm.swappiness。让系统更不倾向于使用swap空间。提高响应速度。 提高ulimit -n(打开文件数)限制。 提高vm.max_map_...
Flink 使用介绍相关文档目录 Flink 使用介绍相关文档目录[//www.greatytc.com/p/74f1990d047c] 问题环境 Flink 1....
简介 Kyuubi 提供了图形化界面。展示了当前Session、Operation、Engine和Kyuubi Server的运行状态信息,提供了Rest API Swagg...
Flink 使用介绍相关文档目录 Flink 使用介绍相关文档目录[//www.greatytc.com/p/74f1990d047c] 前言 Flink提供了Ya...