
AI-fundermentals
AI 基础知识 - GPU 架构、CUDA 编程、大模型基础及AI Agent 相关知识
Stars: 425

README:
本仓库是一个全面的人工智能基础设施(AI Infrastructure
)学习资源集合,涵盖从硬件基础到高级应用的完整技术栈。内容包括 GPU 架构与编程、CUDA
开发、大语言模型、AI
系统设计、性能优化、企业级部署等核心领域,旨在为 AI
工程师、研究人员和技术爱好者提供系统性的学习路径和实践指导。
适用人群:
AI
工程师、系统架构师、GPU
编程开发者、大模型应用开发者、技术研究人员。 技术栈:CUDA
、GPU
架构、LLM
、AI
系统、分布式计算、容器化部署、性能优化。
在构建现代 AI 基础设施时,深入理解底层硬件架构是至关重要的。从 AI Infra 的视角来看,我们需要掌握以下核心硬件知识:
-
计算硬件:
GPU
架构设计、CUDA
核心原理、Tensor Core
加速单元、内存层次结构(寄存器、共享内存、全局内存)以及并行计算模型,这些直接影响模型训练和推理的性能表现。 -
互连技术:
PCIe
总线、NVLink
高速互连、InfiniBand
网络架构,这些技术决定了多GPU
系统的扩展能力和通信效率,是构建大规模分布式训练集群的基础。 -
存储系统:高性能
SSD
、分布式文件系统、内存池化技术,用于支撑海量训练数据的高效读取和模型检查点的快速保存。 - 网络基础设施:高带宽、低延迟的数据中心网络设计,支持模型参数同步、梯度聚合等分布式计算场景的通信需求。
理解这些硬件特性有助于我们在 AI
系统设计中做出最优的架构选择,实现计算资源的高效利用和成本控制。
- PCIe 知识大全 - 深入理解 PCIe 总线架构、带宽计算和性能优化
- NVLink 入门 - NVIDIA 高速互连技术的原理与应用场景
- NVIDIA DGX SuperPOD :下一代可扩展的 AI 领导基础设施 - 企业级 AI 超算集群的架构设计与部署实践
在准备在 GPU
上运行的应用程序时,了解 GPU
硬件设计的主要特性并了解与 CPU
的相似之处和不同之处会很有帮助。本路线图适用于那些对 GPU
比较陌生或只是想了解更多有关 GPU
中计算机技术的人。不需要特定的并行编程经验,练习基于 CUDA
工具包中包含的标准 NVIDIA
示例程序。
-
GPU Architecture and Programming — An Introduction -
GPU
架构与编程模型的全面介绍
- GPGPU vs NPU:大模型推理与训练的算力选择指南 - 全面对比分析 GPGPU 和 NPU 在大模型场景下的技术特点、性能表现和应用选择
核心内容:
- 技术架构深度对比:NVIDIA H100 vs 华为昇腾 910B 架构解析,计算模式差异分析
- 大模型训练场景:训练任务特点、GPGPU 生态优势、NPU 专用优化、成本效益分析
- 大模型推理场景:在线推理服务、批量推理处理、边缘推理部署的技术选型
- 实用决策框架:场景化决策矩阵、技术选型指导原则、混合部署策略
- 发展趋势展望:技术演进路线、生态建设、标准化进程
完整的 AI 基础设施技术课程体系:
- 在线课程演示 - 交互式课程演示(包含 37 个页面的完整课程内容)
课程内容概览:
-
大模型原理与最新进展:
Transformer
架构、训练规模、DeepSeek
技术突破、能力涌现现象 -
AI 编程技术:
GitHub Copilot
、Cursor
、Trae AI
等工具对比,实际应用场景和效率数据 -
GPU 架构与 CUDA 编程:
GPU vs CPU
对比、NVIDIA
架构演进、CUDA
编程模型、性能优化 -
云原生与 AI Infra 融合:推理优化技术、量化技术、
AIBrix
架构、企业级部署实践 - 技术前沿与职业发展:行业趋势分析、学习路径规划、职业发展建议
理论与架构:
- GPU 虚拟化与切分技术原理解析 - 技术原理深入
- GPU 管理相关技术深度解析 - 虚拟化、切分及远程调用 - 全面的 GPU 管理技术指南
- 第一部分:基础理论篇 - GPU 管理基础概念与理论
- 第二部分:虚拟化技术篇 - 硬件、内核、用户态虚拟化技术
- 第三部分:资源管理与优化篇 - GPU 切分与资源调度算法
- 第四部分:实践应用篇 - 部署、运维、性能调优实践
GPU 虚拟化解决方案:
运维工具与实践:
- nvidia-smi 入门
- nvtop 入门
- NVIDIA GPU XID 故障码解析
- NVIDIA GPU 卡之 ECC 功能
- 查询 GPU 卡详细参数
- Understanding NVIDIA GPU Performance: Utilization vs. Saturation (2023)
- GPU 利用率是一个误导性指标
分布式存储系统是现代 AI
基础设施的核心组件,为大规模机器学习训练和推理提供高性能、高可靠性的数据存储解决方案。在 AI
工作负载中,分布式存储系统需要应对海量训练数据集、频繁的模型检查点保存、多节点并发访问等挑战。
从 AI Infra
的角度,分布式存储系统的关键技术包括:
-
高吞吐量数据访问:支持多
GPU
节点并发读取训练数据,提供聚合带宽达到数十 GB/s 的性能表现 - 元数据管理优化:针对深度学习场景的小文件密集访问模式,优化元数据缓存和索引机制
- 数据一致性保证:在分布式训练过程中确保检查点数据的强一致性,支持故障恢复和断点续训
-
存储层次化:结合
NVMe SSD
、HDD
和对象存储,实现冷热数据分层管理和成本优化 -
网络优化:利用
RDMA
、NVLink
等高速网络技术,减少存储 I/O 延迟对训练性能的影响
JuiceFS 分布式文件系统:
- JuiceFS 文件修改机制分析 - 分布式文件系统的修改机制深度解析
- JuiceFS 后端存储变更手册 - JuiceFS 后端存储迁移和变更操作指南
-
3FS 分布式文件系统 - 高性能分布式文件系统的设计理念与技术实现
- 系统架构:集群管理器、元数据服务、存储服务、客户端四大组件
- 核心技术: RDMA 网络、CRAQ 链式复制、异步零拷贝 API
- 性能优化: FUSE 局限性分析、本地客户端设计、io_uring 启发的 API 设计
注意:相关内容为 2025 年春节完成,需要审慎参考!
模型对比与评测:
- DeepSeek-R1 模型对比分析 - 1.5b、7b、官网版本的性能对比与评测
- Mac 上运行 DeepSeek-R1 模型 - 使用 Ollama 在 Mac 上本地部署 DeepSeek-R1
在 AI
基础设施中,高性能网络与通信技术是实现大规模分布式训练和推理的关键基础设施。现代 AI
工作负载对网络性能提出了极高要求:超低延迟(亚微秒级)、超高带宽(数百 Gbps)、高可靠性和可扩展性。本章节涵盖 InfiniBand
、RDMA
、NCCL
等核心技术,这些技术通过硬件加速、零拷贝传输、拓扑感知优化等手段,为 AI
集群提供高效的数据传输和同步能力。
InfiniBand
(IB)是专为高性能计算设计的网络架构,在 AI
基础设施中扮演着数据传输高速公路的角色。相比传统以太网, IB
提供更低的延迟(<1μs)、更高的带宽(200Gbps+)和更强的可扩展性,特别适合大规模 GPU
集群的参数同步、梯度聚合等通信密集型任务。
-
InfiniBand 网络理论与实践 - 企业级高性能计算网络的核心技术栈
- 技术特性:亚微秒级延迟、200Gbps+ 带宽、RDMA 零拷贝传输
- 应用场景:大规模分布式训练、高频金融交易、科学计算集群
- 架构优势:硬件级卸载、CPU 旁路、内存直接访问
- InfiniBand 健康检查工具 - 网络健康状态监控和故障诊断
- InfiniBand 带宽监控 - 实时带宽监控和性能分析
RDMA
(Remote Direct Memory Access)是高性能网络通信的核心技术,允许应用程序直接访问远程主机的内存,绕过操作系统内核和 CPU ,实现真正的零拷贝数据传输。在 AI
基础设施中, RDMA
技术显著降低了分布式训练中的通信延迟和 CPU
开销,提高了整体系统效率。
核心技术特性:
-
零拷贝传输:数据直接在网卡和应用内存间传输,无需
CPU
参与 - 内核旁路:绕过操作系统网络协议栈,减少上下文切换开销
-
硬件卸载:网络处理完全由硬件完成,释放
CPU
资源用于计算 - 低延迟保证:亚微秒级延迟,满足实时通信需求
在 AI 场景中的应用:
- 参数服务器架构:高效的参数同步和梯度聚合
- AllReduce 优化:加速分布式训练中的集合通信操作
- 模型并行:支持大模型的跨节点内存共享
- 数据流水线:优化训练数据的预处理和传输流程
-
NCCL 分布式通信测试套件使用指南 - NVIDIA 集合通信库的深度技术解析
- 核心算法: AllReduce、AllGather、Broadcast、ReduceScatter 优化实现
- 性能调优:网络拓扑感知、带宽聚合、计算通信重叠
- 生态集成:与 PyTorch、TensorFlow、MPI 的深度集成方案
- NCCL Kubernetes 部署 - 容器化 NCCL 集群部署方案
核心特性:
- PXN 模式支持:专为多节点优化的高性能通信解决方案
- 三种优化级别:保守、平衡、激进模式,满足不同性能需求
- 智能网络检测:自动选择最佳网络配置和通信路径
- 容器化部署:支持 Docker 和 Kubernetes 部署
- 多节点测试:支持大规模分布式训练场景
测试工具:
- NCCL 性能基准测试 - 支持 PXN 模式的性能测试
- 容器化测试管理 - 容器化测试环境管理
- 多节点测试启动器 - 原生多节点测试部署
- Kubernetes AI 基础设施概述 - 企业级容器化 AI 工作负载的编排管理平台
- Kueue + HAMi 集成方案 - GPU 资源调度与管理的云原生解决方案
- NVIDIA Container Toolkit 原理分析 - 容器化 GPU 支持的底层机制
- NVIDIA K8s Device Plugin 分析 - GPU 设备插件的架构与实现
核心特性:
- 智能调度: GPU 资源共享、NUMA 拓扑感知、多优先级调度策略
- 资源管理: GPU Operator、Node Feature Discovery、MIG Manager 统一管理
- 可观测性: Prometheus 指标采集、Grafana 可视化、Jaeger 链路追踪
- 云原生高性能分布式 LLM 推理框架 llm-d 介绍 - 基于 Kubernetes 的大模型推理框架
- vLLM + LWS : Kubernetes 上的多机多卡推理方案 - LWS 旨在提供一种 更符合 AI 原生工作负载特点的分布式控制器语义,填补现有原语在推理部署上的能力空白
技术架构:
- 服务治理: Istio 服务网格、Envoy 代理、智能负载均衡
- 弹性伸缩: HPA 水平扩展、VPA 垂直扩展、KEDA 事件驱动自动化
- 模型运营:多版本管理、A/B 测试、金丝雀发布、流量切换
- AI 系统性能分析 - 企业级 AI 系统的全栈性能分析与瓶颈诊断
分析维度:
- 多维分析:计算密集度、内存访问模式、网络通信效率、存储 I/O 性能
- 专业工具: Nsight Systems 系统级分析、Nsight Compute 内核级优化、Intel VTune 性能调优
- 优化方法论:算子融合策略、内存池化管理、计算通信重叠、数据流水线优化
- 使用 Nsight Compute Tool 分析 CUDA 矩阵乘法程序
- CUDA 内核性能分析指南 - NVIDIA 官方 CUDA 内核性能分析详细指南
性能分析工具:
- NVIDIA Nsight Compute: CUDA 内核级性能分析器
- NVIDIA Nsight Systems:系统级性能分析器
- nvprof:传统 CUDA 性能分析工具
关键指标与优化:
- 硬件指标: SM 占用率、内存带宽利用率、L1/L2 缓存命中率、Tensor Core 效率
- 内核优化: CUDA Kernel 性能调优、内存访问模式优化、线程块和网格配置
- 分析工具: CUDA Profiler 性能剖析、Nsight Graphics 图形分析、GPU-Z 硬件监控
性能优化实践:
- 全局内存访问模式优化:提升内存访问效率
- 共享内存(Shared Memory)优化:利用片上高速缓存
- 指令级并行(ILP)优化:提升计算吞吐量
- 内存带宽利用率分析:优化数据传输性能
- GPU 监控与运维工具概述 - 企业级 GPU 集群的全方位监控与运维解决方案
- nvidia-smi 详解 - NVIDIA 系统管理接口工具的深度使用指南与最佳实践
- nvtop 使用指南 - 实时交互式 GPU 监控工具的高级应用
- DeviceQuery 工具 - CUDA 设备查询工具的完整功能解析
核心特性:
- 实时监控: GPU 利用率、核心温度、功耗曲线、显存占用、PCIe 带宽
- 智能告警:多级阈值告警、机器学习异常检测、故障预测与预警
- 数据可视化: Grafana 多维仪表板、历史趋势分析、性能基线报告
- 运维自动化:基础设施即代码、配置标准化、智能故障恢复
- GPU 利用率是一个误导性指标 - 深入理解 GPU 利用率指标的局限性与替代方案
本部分专注于 AI
开发相关的编程技术、工具和实践,涵盖从基础编程到高性能计算的完整技术栈。
- AI 编程入门完整教程 - 面向初学者的 AI 编程完整学习路径与实践指南
- AI 编程入门在线版本 - 交互式在线学习体验与动手实践
学习路径:
- 理论基础:机器学习核心概念、深度学习原理、神经网络架构设计
- 编程语言生态: Python AI 生态、R 统计分析、Julia 高性能计算在 AI 中的应用
- 开发环境搭建: Jupyter Notebook 交互式开发、PyCharm 专业 IDE、VS Code 轻量级配置
- CUDA 核心概念详解 - CUDA 核心、线程块、网格等基础概念的深度解析
- CUDA 流详解 - CUDA 流的原理、应用场景与性能优化
- GPU 编程基础 - GPU 编程入门到进阶的完整技术路径
技术特色:
- CUDA 核心架构: SIMT 线程模型、分层内存模型、流式执行模型
- 性能调优实践:内存访问模式优化、线程同步策略、算法并行化重构
- 高级编程特性: Unified Memory 统一内存、Multi-GPU 多卡编程、CUDA Streams 异步执行
系统化的 Trae 编程学习体系:
-
《Trae 编程实战》课程提纲 - 完整的五部分 21 章课程规划
- 基础入门:环境配置、交互模式、HelloWorld 项目实战
- 场景实战:前端开发、后端 API、数据库设计、安全认证
- 高级应用: AI 集成、实时通信、数据分析、微服务架构
- 团队协作:代码质量、版本控制、CI/CD、性能优化
- 综合项目:企业级应用开发、部署运维实战
- Java AI 开发指南 - Java 生态系统中的 AI 开发技术
- 使用 Spring AI 构建高效 LLM 代理 - 基于 Spring AI 框架的企业级 AI 应用开发
技术特色:
- 企业级框架:基于成熟的 Spring 生态系统
- 多提供商支持:统一 API 集成 OpenAI、Azure OpenAI、Hugging Face 等
- 生产就绪:提供完整的企业级 AI 应用解决方案
- Java 原生:充分利用 Java 生态系统的优势
- CUDA Reading Group 相关讲座: GPU Mode Reading Group
- 《CUDA C++ Programming Guide 》
- 《CUDA C 编程权威指南》:书中示例代码
- Nvidia 官方 CUDA 示例
- 《CUDA 编程:基础与实践 by 樊哲勇》
- 《CUDA 编程简介: 基础与实践 by 李瑜》
- 《CUDA 编程入门》 - 本文改编自北京大学超算队 CUDA 教程讲义
- Multi GPU Programming Models
- CUDA Processing Streams
本小节面向 CUDA
编程的专业开发者,提供深度优化的内核实现和高性能计算技术。通过 200+ 个精心设计的内核示例,涵盖 Tensor Core
、CUDA Core
的极致优化,以及现代 GPU
架构的前沿技术应用,帮助开发者达到接近硬件理论峰值的性能表现。
CUDA-Learn-Notes:📚Modern CUDA Learn Notes: 200+ Tensor/CUDA Cores Kernels🎉, HGEMM, FA2 via MMA and CuTe, 98~100% TFLOPS of cuBLAS/FA2.
本部分基于 动手学机器学习 项目,提供系统化的机器学习学习路径。
- 动手学机器学习 - 全面的机器学习学习资源库,包含理论讲解、代码实现和实战案例
核心特色:
- 理论与实践结合:从数学原理到代码实现的完整学习路径
- 算法全覆盖:监督学习、无监督学习、集成学习、深度学习等核心算法
- 项目驱动学习:通过实际项目掌握机器学习的完整工作流程
- 工程化实践:特征工程、模型评估、超参数调优等工程技能
- 通俗理解机器学习核心概念
- 梯度下降算法:从直觉到实践
- 混淆矩阵评价指标
- 误差 vs. 残差
- 线性代数的本质 - 3Blue1Brown 可视化教程
- MIT 18.06 线性代数 - Gilbert Strang 经典课程
- 概率论与统计学基础 - 贝叶斯定理、概率分布、最大似然估计
监督学习是机器学习的核心分支,通过标注数据训练模型进行预测和分类。本节系统介绍监督学习的基础算法和集成方法,从经典的线性模型到现代的集成技术,涵盖理论原理、算法实现和实际应用,为机器学习实践奠定坚实基础。
基础算法是监督学习的核心组成部分,包括线性模型、树模型、概率模型等经典算法。这些算法各有特色,适用于不同的数据类型和问题场景,是机器学习从业者必须掌握的基础技能。
- KNN 算法 - K 近邻算法理论与实现
- 线性回归 - 最小二乘法、正则化
- 逻辑回归 - 分类算法基础
- 决策树 - ID3、C4.5、CART 算法
- 支持向量机 - 核技巧与软间隔
- 朴素贝叶斯 - 概率分类器
集成学习通过组合多个基学习器来提升模型性能,是现代机器学习竞赛和工业应用的重要技术。本小节深入探讨 Bagging、Boosting、Stacking 等主流集成方法,以及它们在实际项目中的应用策略和优化技巧。
无监督学习从无标注数据中发现隐藏的模式和结构,是数据挖掘和知识发现的重要手段。本节涵盖聚类、降维、概率建模等核心技术,通过理论讲解和实践案例,帮助读者掌握无监督学习的精髓和应用技巧。
聚类算法是无监督学习的重要分支,用于发现数据中的自然分组结构。本小节介绍基于距离、密度、层次等不同原理的聚类方法,分析各算法的优缺点和适用场景,为数据分析和客户细分等应用提供技术支撑。
- K-means 聚类 - 基础聚类算法
- 层次聚类 - 凝聚与分裂聚类
- DBSCAN - 密度聚类算法
降维算法通过减少数据维度来简化问题复杂度,同时保留数据的主要信息。本小节深入探讨线性和非线性降维方法,包括主成分分析、线性判别分析等经典技术,以及它们在数据可视化和特征提取中的应用。
- PCA 主成分分析 - 线性降维方法
- LDA 线性判别分析 - 监督降维技术
- PCA vs LDA 比较 - 降维方法对比分析
概率模型基于统计学原理对数据进行建模,能够处理不确定性和噪声。本小节介绍期望最大化算法、高斯混合模型等重要概率建模技术,以及最大似然估计的理论基础和实际应用。
特征工程是机器学习项目成功的关键因素,直接影响模型的性能和泛化能力。本节系统介绍特征工程的方法论、模型评估技术和优化策略,通过理论指导和实践案例,帮助读者掌握从数据预处理到模型调优的完整技能体系。
特征工程是将原始数据转换为机器学习算法可以有效利用的特征的过程。本小节涵盖数据清洗、特征选择、特征变换等核心技术,以及针对不同数据类型(数值、文本、时间序列)的专门处理方法。
- 特征工程概述 - 数据预处理、特征选择与变换
- 特征选择方法 - 过滤法、包装法、嵌入法
- GBDT 特征提取 - 基于树模型的特征工程
- 时间序列特征提取 - 时间序列数据处理
- 词袋模型 - 文本特征工程
模型评估是机器学习项目的重要环节,用于客观衡量模型性能和选择最优方案。本小节介绍各种评估指标、交叉验证方法、超参数优化技术,以及处理数据不平衡等实际问题的解决方案。
- 模型评估方法 - 评估指标与交叉验证
- 混淆矩阵评价指标 - 分类模型性能评估
- GridSearchCV - 超参数优化实践
- L1 L2 正则化 - 正则化方法介绍
- SMOTE 采样 - 不平衡数据处理
推荐系统和概率图模型是机器学习在实际应用中的重要分支。推荐系统通过分析用户行为和物品特征来提供个性化推荐,概率图模型则用于处理复杂的依赖关系和不确定性。本节深入探讨这两个领域的核心技术和实际应用。
推荐系统是现代互联网应用的核心技术之一,广泛应用于电商、内容平台、社交网络等场景。本小节系统介绍协同过滤、内容推荐、矩阵分解等主流推荐算法,以及推荐系统的评估方法和工程实践。
概率图模型结合了概率论和图论,用于建模变量间的复杂依赖关系。本小节介绍贝叶斯网络、隐马尔可夫模型等重要概率图模型,探讨它们在自然语言处理、计算机视觉等领域的应用。
深度学习是现代人工智能的核心技术,通过多层神经网络学习数据的深层表示。本节介绍深度学习的基本概念、神经网络架构和训练方法,为后续的大模型学习奠定基础。
实战项目是将理论知识转化为实际技能的重要途径。本节提供多个完整的机器学习项目案例,涵盖数据预处理、特征工程、模型训练、评估优化等完整流程,帮助读者积累实际项目经验。
- 泰坦尼克号幸存者预测 - 特征工程与分类实战
- 朴素贝叶斯实例 - 概率计算实例
- RFM 用户分析 - 用户价值分析
- 电影推荐系统 - 推荐算法实战
本节汇总了机器学习领域的优质学习资源,包括经典教材、在线课程、实践平台等,为不同学习阶段的读者提供系统性的学习路径和参考资料。
- 《统计学习方法》 - 李航著,算法理论基础
- 《机器学习》 - 周志华著,西瓜书经典
- 《模式识别与机器学习》 - Bishop 著,数学严谨
- 机器学习考试复习提纲 - 考试重点总结
- 梯度下降算法详解 - 优化算法理解
- 机器学习核心概念 - 概念通俗解释
- Andrew Ng 机器学习课程 - Coursera 经典课程
- CS229 机器学习 - 斯坦福大学课程
- Kaggle - 数据科学竞赛平台
- Google Colab - 免费 GPU 环境
- scikit-learn - Python 机器学习库
大语言模型的基础理论涵盖了从文本处理到模型架构的核心概念。理解这些基础概念是深入学习 LLM
技术的前提,包括 Token 化机制、文本编码、模型结构等关键技术。这些基础知识为后续的模型训练、优化和应用奠定了坚实的理论基础。
- Andrej Karpathy : Deep Dive into LLMs like ChatGPT (B 站视频) - 深度学习领域权威专家的 LLM 技术解析
- 大模型基础组件 - Tokenizer - 文本分词与编码的核心技术
-
解密大语言模型中的 Tokens - Token 机制的深度解析与实践应用
- Tiktokenizer 在线版 - 交互式 Token 分析工具
嵌入技术是大语言模型的核心组件之一,负责将离散的文本符号转换为连续的向量表示。这一技术不仅影响模型的理解能力,还直接关系到模型的性能和效率。本节深入探讨文本嵌入的原理、实现方式以及在不同场景下的应用策略。
- 文本嵌入(Text-Embedding) 技术快速入门 - 文本向量化的理论基础与实践
- LLM 嵌入技术详解:图文指南 - 可视化理解嵌入技术
- 大模型 Embedding 层与独立 Embedding 模型:区别与联系 - 嵌入层架构设计与选型策略
现代大语言模型采用了多种先进的架构设计和优化技术,以提升模型性能、降低计算成本并解决特定问题。本节涵盖混合专家系统、量化技术、思维链推理等前沿技术,这些技术代表了当前 LLM 领域的最新发展方向。
- 大模型可视化指南 - 大模型内部机制的可视化分析
- 一文读懂思维链(Chain-of-Thought, CoT) - 推理能力增强的核心技术
- 大模型的幻觉及其应对措施 - 幻觉问题的成因分析与解决方案
- 大模型文件格式完整指南 - 模型存储与部署的技术规范
- 混合专家系统(MoE)图解指南 - 稀疏激活架构的设计原理
- 量化技术可视化指南 - 模型压缩与加速的核心技术
- 基于大型语言模型的意图检测 - 自然语言理解的实际应用
- 大模型技术 30 讲 - 大模型时代,智能体崛起:从技术解构到工程落地的全栈指南
-
大模型基础
- 从零构建大模型 - 从理论到实践,手把手教你打造自己的大语言模型
- 百面大模型 - 打通大模型求职与实战的关键一书
- 图解大模型:生成式 AI 原理与实践 - 超过 300 幅全彩图示 × 实战级项目代码 × 中文独家 DeepSeek-R1 彩蛋内容,入门、进阶、实操、求职一步到位!
指令微调(Instruction Tuning)和监督微调(Supervised Fine-Tuning, SFT)是大语言模型训练的关键技术,通过在预训练模型基础上使用高质量的指令-响应数据对进行进一步训练,使模型能够更好地理解和执行人类指令。这一技术对于提升模型的实用性和安全性具有重要意义。
- Qwen 2 大模型指令微调入门实战 - 基于 Qwen 2 的指令微调完整实践流程
- 一文入门垂域模型 SFT 微调 - 垂直领域模型的监督微调技术与应用实践
大规模模型训练是一个复杂的系统工程,涉及数据处理、基础设施搭建、分布式训练、超参数优化等多个方面。本节通过实际的 70B 参数模型训练案例,深入探讨从硬件配置到模型评估的完整训练流程,为大规模模型训练提供实践指导。
- Training a 70B model from scratch: open-source tools, evaluation datasets, and learnings - 70B 参数模型从零训练的完整技术路径与经验总结
- Sanitized open-source datasets for natural language and code understanding: how we evaluated our 70B model - 大规模训练数据集的清洗、评估与质量控制方法
- From bare metal to a 70B model: infrastructure set-up and scripts - 大模型训练基础设施的搭建、配置与自动化脚本
- Open-sourcing CARBS: how we used our hyperparameter optimizer to scale up to a 70B-parameter language model - 超参数优化器在大规模模型训练中的应用与调优策略
推理系统架构是大模型服务化的核心基础,直接决定了系统的性能、可扩展性和资源利用效率。现代推理系统需要在低延迟、高吞吐量和成本效益之间找到最佳平衡点,同时支持动态批处理、内存优化和多模型并发等高级特性。
- Mooncake 架构详解:以 KV 缓存为中心的高效 LLM 推理系统设计 - 新一代推理系统的架构创新与性能优化策略
模型部署与运维是将训练好的大模型转化为可用服务的关键环节,涉及模型格式转换、环境配置、服务监控和故障处理等多个方面。有效的部署策略能够显著降低运维成本,提高服务稳定性和用户体验。
- 动手部署 ollama - 轻量级本地大模型部署的完整实践指南
推理优化技术体系是提升大模型推理性能的核心技术集合,包括算法优化、硬件加速、系统调优和架构设计等多个维度。通过系统性的优化策略,可以在保证模型精度的前提下,大幅提升推理速度、降低资源消耗并改善用户体验。
完整的 AI 推理优化技术文档系列,涵盖从小型到大型集群的推理优化策略:
- AI 推理优化技术文档导航 - 推理优化技术方案的完整导航,涵盖基础理论、技术选型、专业领域优化和实施运维的系统性指南
- 背景与目标 - 大模型推理优化的技术背景分析,包括推理挑战、应用需求、发展趋势和核心研究目标
- 集群规模分类与特征分析 - 小型、中型、大型集群的详细特征分析,配置要求和规模化部署策略
- 核心推理优化技术深度解析 - 模型压缩、并行计算、推测解码等核心优化技术的深度技术解析和实现指南
- 不同集群规模的技术选型策略 - 针对不同规模集群的技术选型决策框架和最优配置策略
- 性能评估指标体系 - 推理服务性能评估的完整指标体系,包括吞吐量、延迟、资源利用率等关键指标
- 推理服务架构设计 - 推理服务的微服务架构设计,负载均衡、容错机制和高可用性保障
- 实施建议与最佳实践 - 分阶段实施策略、风险管理和生产环境部署的最佳实践指南
- 参考资料与延伸阅读 - 推理优化相关的技术文档、开源项目和深度学习资源汇总
- 安全性与合规性 - 推理服务的安全威胁分析、隐私保护机制和企业级合规要求
- 多模态推理优化 - 文本、图像、音频等多模态融合的推理架构设计和跨模态注意力优化技术
- 边缘推理优化 - 边缘设备适配、分布式边缘推理和实时推理优化的完整技术方案
- 场景问题解答 - 推理优化实施过程中的常见技术问题、故障排查和解决方案集合
- 实施检查清单 - 推理优化项目的分阶段实施检查清单和验收标准
- 总结与展望 - 推理优化技术的发展总结和未来趋势分析,技术演进路线图
本章深入探讨企业级 AI Agent
开发的完整技术体系,从理论基础到工程实践,涵盖多智能体系统、上下文工程、记忆系统架构、RAG 技术等核心领域。通过系统性的技术框架和丰富的实践案例,帮助开发者构建高性能、可扩展的企业级智能体应用。
本节提供企业级 AI Agent
开发的全景视图,涵盖技术体系架构、开发方法论、最佳实践和行业标准。通过系统性的技术框架介绍,为后续各专业领域的深入学习奠定基础。
- AI Agent 开发与实践 - 企业级 AI Agent 开发的完整技术体系与最佳实践
本节深入探讨多智能体系统的理论基础和架构设计原理,包括 BDI (信念-愿望-意图)架构、智能体协作机制、分布式决策算法等核心概念。通过理论与实践相结合的方式,为企业级多智能体系统的设计和实现提供科学的理论指导和可操作的技术框架。
- 多智能体 AI 系统基础:理论与框架 - 多智能体系统的理论基础、BDI 架构和协作机制
- 企业级多智能体 AI 系统构建实战 - 企业级多智能体系统的架构设计、技术选型和工程实现
上下文工程是现代 AI Agent 开发的核心技术领域,代表了从传统提示工程向智能化上下文管理的技术演进。本节基于中科院权威研究成果,系统阐述上下文工程的理论基础、技术架构和工程实践,涵盖信息检索、智能选择、动态组装、自适应压缩等核心机制,为构建高效智能的企业级 AI 系统提供技术支撑。
理论基础与核心原理:
-
上下文工程原理 - 基于中科院权威论文的系统性理论阐述与技术框架
- 范式转变:从传统提示工程到现代上下文工程的技术演进
- 核心机制:信息检索、智能选择、动态组装、自适应压缩和实时调整
- 技术架构:多模态信息融合、分布式状态管理、智能组装引擎
- 企业应用:全生命周期上下文管理和系统化自动优化策略
-
上下文工程原理简介 - 面向开发者的深入浅出技术指南
- 概念演进:从简单聊天机器人到复杂智能助手的技术进化路径
- 核心特征:系统性方法论、动态优化算法、多模态融合、状态管理、智能组装
- 技术对比:与传统提示词工程的本质区别、优势分析和应用场景
-
基于上下文工程的 LangChain 智能体应用 - LangChain 框架的上下文工程实践指南
- 架构设计:行为准则定义、信息接入策略、会话记忆管理、工具集成方案、用户画像构建
- 技术实现: LangChain 与 LangGraph 的深度集成与上下文工程最佳实践
- 问题解决:上下文污染检测、信息干扰过滤、语义混淆处理、冲突解决策略
- 性能优化:令牌消耗控制算法、成本效益分析、延迟优化技术
记忆系统是 AI 智能体实现长期学习和知识积累的关键技术组件。本节深入探讨智能体记忆系统的架构设计原理、存储策略优化、检索算法实现和多轮对话中的指代消解机制,为构建具备持续学习能力的智能体系统提供完整的技术方案。
-
AI 智能体记忆系统:理论与实践 - 智能体记忆系统的架构设计、存储策略与检索优化技术
- 记忆系统代码实现 - 记忆系统的核心算法实现与工程化实践
-
MemoryOS 智能记忆系统架构设计与开发指南 - MemoryOS 智能记忆管理系统的模块化架构设计、可插拔存储后端和分层记忆管理机制
-
论文解读 - 大模型 Agent 记忆系统:理论基础与交互机制 - 本文从理论角度深入探讨了大模型 Agent 记忆系统的定义、概念和交互机制,旨在帮助读者理解记忆系统的产生、存储和使用原理。
-
如何设计支持多轮指代消解的对话系统 - 多轮对话中的指代消解机制与上下文理解技术
-
使用 LangChain 实现智能对话机器人的记忆功能 - 本文将深入探讨如何使用 LangChain 框架实现智能对话机器人的记忆功能,从 AI Agent 记忆系统的理论基础到 LangChain 的具体实现,再到实际应用案例,为开发者提供完整的技术指南和可运行的代码示例。
本节通过完整的企业级项目案例和系统性的培训体系,展示多智能体系统从理论设计到工程实现的全过程。涵盖 Docker 容器化部署、自动化测试、性能监控、LangGraph 工作流编排、LangSmith 全链路监控等企业级技术栈,为开发者提供可直接应用的工程实践指南。
- 多智能体系统项目 - 企业级多智能体系统的完整实现项目,包含 Docker 容器化部署、自动化测试用例和性能监控
- 多智能体训练课程 - 系统性的多智能体训练教程,包含理论基础、LangGraph 框架、LangSmith 监控、企业级架构和应用实践
- 多智能体 AI 系统培训材料 - 5 天 40 学时的完整培训体系
- 多智能体系统概论 - BDI 架构、协作机制、系统优势
- LangGraph 深度应用 - 工作流编排引擎深度应用
- LangSmith 监控平台集成 - 全链路追踪、告警、性能优化
- 企业级系统架构设计与实现 - 架构设计、技术实现、代码实践
- 应用实践与部署运维 - 智能客服、部署、最佳实践
培训特色:
- 理论实践结合:从抽象理论到具体实现的完整转化路径
- 技术栈全覆盖: LangGraph 工作流编排 + LangSmith 全链路监控
- 企业级标准:高可用性架构、安全机制、性能优化、运维最佳实践
- 完整项目案例:智能客服系统、内容创作平台、金融分析系统
本节提供具体的 AI Agent 应用部署案例,通过 Coze 平台的部署配置实践,展示企业级智能体应用的实际落地过程,包括平台选择、配置优化、部署策略等关键环节的最佳实践。
- Coze 部署和配置手册 - Coze 平台的部署配置指南
检索增强生成(RAG)是现代 AI Agent 系统的核心技术之一,通过结合外部知识库和生成模型,显著提升智能体的知识获取和推理能力。本节涵盖 RAG 系统的架构设计、分块策略优化、Embedding 模型选型、系统评估等关键技术,为构建知识密集型智能体应用提供完整的技术指南。
- RAG 技术概述
- 从 0 到 1 快速搭建 RAG 应用
- Evaluating Chunking Strategies for Retrieval 总结
- 中文 RAG 系统 Embedding 模型选型技术文档
本节系统介绍 AI Agent 开发的主流框架和工具生态,涵盖 Python 和 Java 两大技术栈。从 LangChain、LangGraph 等 Python 生态的工作流编排工具,到 Spring AI 等 Java 企业级框架,以及 MCP、n8n 等新兴技术平台,为不同技术背景的开发者提供全面的工具选型指南和最佳实践。
Python 生态:
- LangChain + 模型上下文协议(MCP): AI 智能体 Demo
- AI Agents for Beginners 课程之 AI 智能体及使用场景简介
- MCP 深度解析与 AI 工具未来
- LangGraph 实战:用 Python 打造有状态智能体
- 使用 n8n 构建多智能体系统的实践指南
- 开源大语言模型应用编排平台: Dify、AnythingLLM、Ragflow 与 n8n 的功能与商用许可对比分析
Java 生态:
-
使用 Spring AI 构建高效 LLM 代理 - Spring AI 代理模式实现指南
- 代理系统架构:工作流 vs 代理的设计理念对比
- 五种基本模式:链式工作流、路由工作流、并行化、编排、评估
- 企业级实践:可预测性、一致性、可维护性的平衡
- 技术实现: Spring AI 的模型可移植性和结构化输出功能
模型上下文协议(MCP)是 AI 工具生态的重要技术标准,为智能体与外部工具的集成提供了标准化的接口规范。本节深入解析 MCP 的技术架构、协议设计和未来发展趋势,探讨其在构建可扩展、可互操作的 AI 工具生态中的关键作用。
本章通过丰富的实践案例,展示 AI 技术在不同场景下的具体应用和实现方法。从模型部署推理到文档处理工具,再到特定领域的专业应用,为开发者提供可直接参考和复用的技术方案和最佳实践。
本节聚焦于大语言模型的实际部署和推理实践,通过具体的部署案例,展示如何在生产环境中高效部署和运行大模型服务,包括环境配置、性能优化、资源管理等关键技术环节。
文档处理是 AI 应用的重要场景之一,本节介绍多种先进的 AI 驱动文档处理工具和技术。涵盖 PDF 布局检测、复杂文档解析、多格式转换等核心功能,为构建智能文档处理系统提供完整的技术解决方案和工程实践指导。
- 深入探索: AI 驱动的 PDF 布局检测引擎源代码解析
- 上海人工智能实验室开源工具 MinerU 助力复杂 PDF 高效解析提取
- Markitdown 入门
- DeepWiki 使用方法与技术原理深度分析
本节展示 AI 技术在垂直领域的深度应用实践,包括中医古籍分析、法律合同审核、智能对话系统等专业场景。通过具体的应用案例,探讨如何针对特定领域的需求进行模型定制、数据处理和系统优化,为行业 AI 应用提供参考范例。
本章汇聚了 AI 领域最核心的工具、资源和技术生态,为开发者和研究者提供全方位的技术支撑体系。从系统性的学习资源到前沿的开源项目,从基础设施课程到实用工具选型,构建了完整的 AI 技术栈知识图谱。这些资源不仅涵盖理论基础,更注重工程实践,帮助读者快速掌握企业级 AI 系统开发的核心技能。
本节提供企业级 AI 系统学习的完整知识体系,涵盖从硬件基础到框架设计的全技术栈内容。通过系统化的学习路径,帮助开发者构建扎实的 AI 系统理论基础和工程实践能力。内容包括 AI 系统概述、硬件架构深度解析、编译器技术原理、推理优化策略以及框架设计模式等核心主题。
AISystem - 企业级 AI 系统学习的完整知识体系与技术栈,涵盖:
- 系统介绍 - AI 系统概述、发展历程与技术演进路径
- 硬件基础 - AI 芯片架构、硬件加速器与计算平台深度解析
- 编译器技术 - AI 编译器原理、优化技术与工程实践
- 推理优化 - 模型推理加速技术、性能调优与部署策略
- 框架设计 - AI 框架架构设计、分布式计算与并行优化
本节构建了系统性的 AI 基础设施专业课程体系,深入解析大模型技术原理、最新进展和企业级应用实践。课程内容涵盖 Transformer 架构、训练成本分析、技术突破案例、能力涌现现象等前沿主题,结合交互式学习平台和完整演讲内容,为学习者提供理论与实践并重的学习体验。
- 大模型原理与最新进展 - 交互式在线课程平台
- AI Infra 课程演讲稿 - 完整的课程演讲内容、技术要点与实践案例
- 学习目标:深入理解大模型工作原理、最新技术进展与企业级应用实践
-
核心内容:
- Transformer 架构深度解析:编码器-解码器结构、多头注意力机制、文本生成过程
- 训练规模与成本分析: GPT-3/4、PaLM 等主流模型的参数量、训练成本和资源需求
- DeepSeek 技术突破: V1/V2/R1 三代模型演进、MLA 架构创新、MoE 稀疏化优化
- 能力涌现现象研究:规模效应、临界点突破、多模态融合发展趋势
- AI 编程工具生态: GitHub Copilot、Cursor、Trae AI 等工具对比分析与应用实践
- GPU 架构与 CUDA 编程:硬件基础、并行计算原理、性能优化策略
- 云原生 AI 基础设施:现代化 AI 基础设施设计、容器化部署与运维实践
本节精选了 AI 领域最具价值的开源项目和技术方案,为企业级 AI 应用提供可靠的技术选型参考。涵盖大模型推理框架、文档处理工具、基础设施组件等多个技术领域,每个项目都经过实际验证,具备良好的社区支持和企业级应用案例。通过对比分析不同技术方案的优势和适用场景,帮助开发者做出最佳的技术选择。
本小节聚焦于大模型训练、微调和推理的核心框架技术,涵盖高性能中文大模型、高效微调工具和推理优化框架。这些项目代表了当前大模型技术的最新进展,在性能优化、内存效率和推理速度方面都有显著突破,为企业级大模型应用提供了强有力的技术支撑。
- DeepSeek - 基于 Transformer 的高性能中文大模型,具备强大的推理能力与多语言支持
- unsloth - 高效大模型微调框架,支持 Llama 3.3、DeepSeek-R1 等模型 2 倍速度提升与 70% 内存节省
- ktransformers - 灵活的大模型推理优化框架,提供前沿的推理加速技术
本小节专注于文档智能化处理和数据预处理技术,提供从非结构化数据提取到高质量格式转换的完整解决方案。这些工具在 RAG 系统构建、知识库建设和文档智能化处理场景中发挥关键作用,支持多种文档格式的高精度解析和转换,为 AI 应用的数据准备阶段提供强大的技术支持。
- unstructured - 企业级非结构化数据处理库,支持自定义预处理流水线与机器学习数据准备
- MinerU - 高质量 PDF 转换工具,支持 Markdown 和 JSON 格式输出,适用于文档智能化处理
- markitdown - Microsoft 开源的文档转换工具,支持多种办公文档格式到 Markdown 的高质量转换
如果您觉得本项目对您有帮助,欢迎购买我一杯咖啡,支持我继续创作和维护。
微信 | 支付宝 |
---|---|
For Tasks:
Click tags to check more tools for each tasksFor Jobs:
Alternative AI tools for AI-fundermentals
Similar Open Source Tools

PythonPark
PythonPark is a paradise for learning Python, providing babysitter-level tutorials on AI labs, treasure videos, data structures, study guides, machine learning practicals, deep learning practicals, Python basics, web scraping, big company interview experiences, programming life, and resource sharing. Original articles are published at least twice a week, with the latest articles being first released on WeChat and videos on Bilibili. Join the WeChat group for technical discussions or to provide feedback. Continuously improving and outputting content!

ai_wiki
This repository provides a comprehensive collection of resources, open-source tools, and knowledge related to quantitative analysis. It serves as a valuable knowledge base and navigation guide for individuals interested in various aspects of quantitative investing, including platforms, programming languages, mathematical foundations, machine learning, deep learning, and practical applications. The repository is well-structured and organized, with clear sections covering different topics. It includes resources on system platforms, programming codes, mathematical foundations, algorithm principles, machine learning, deep learning, reinforcement learning, graph networks, model deployment, and practical applications. Additionally, there are dedicated sections on quantitative trading and investment, as well as large models. The repository is actively maintained and updated, ensuring that users have access to the latest information and resources.

terraform-provider-airbyte
Programatically control Airbyte Cloud through an API. Developers can create an API Key within the Developer Portal to make API requests. The provider allows for integration building by showing network request information and API usage details. It offers resources and data sources for various destinations and sources, enabling users to manage data flow between different services.

py-xiaozhi
py-xiaozhi is a Python-based XiaoZhi voice client designed for learning through code and experiencing AI XiaoZhi's voice functions without hardware conditions. The repository is based on the xiaozhi-esp32 port. It supports AI voice interaction, visual multimodal capabilities, IoT device integration, online music playback, voice wake-up, automatic conversation mode, graphical user interface, command-line mode, cross-platform support, volume control, session management, encrypted audio transmission, automatic captcha handling, automatic MAC address retrieval, code modularization, and stability optimization.

chatwiki
ChatWiki is an open-source knowledge base AI question-answering system. It is built on large language models (LLM) and retrieval-augmented generation (RAG) technologies, providing out-of-the-box data processing, model invocation capabilities, and helping enterprises quickly build their own knowledge base AI question-answering systems. It offers exclusive AI question-answering system, easy integration of models, data preprocessing, simple user interface design, and adaptability to different business scenarios.

blog
这是一个程序员关于 ChatGPT 学习过程的记录,其中包括了 ChatGPT 的使用技巧、相关工具和资源的整理,以及一些个人见解和思考。 **使用技巧** * **充值 OpenAI API**:可以通过 https://beta.openai.com/account/api-keys 进行充值,支持信用卡和 PayPal。 * **使用专梯**:推荐使用稳定的专梯,可以有效提高 ChatGPT 的访问速度和稳定性。 * **使用魔法**:可以通过 https://my.x-air.app:666/#/register?aff=32853 访问 ChatGPT,无需魔法即可访问。 * **下载各种 apk**:可以通过 https://apkcombo.com 下载各种安卓应用的 apk 文件。 * **ChatGPT 官网**:ChatGPT 的官方网站是 https://ai.com。 * **Midjourney**:Midjourney 是一个生成式 AI 图像平台,可以通过 https://midjourney.com 访问。 * **文本转视频**:可以通过 https://www.d-id.com 将文本转换为视频。 * **国内大模型**:国内也有很多大模型,如阿里巴巴的通义千问、百度文心一言、讯飞星火、阿里巴巴通义听悟等。 * **查看 OpenAI 状态**:可以通过 https://status.openai.com/ 查看 OpenAI 的服务状态。 * **Canva 画图**:Canva 是一个在线平面设计平台,可以通过 https://www.canva.cn 进行画图。 **相关工具和资源** * **文字转语音**:可以通过 https://modelscope.cn/models?page=1&tasks=text-to-speech&type=audio 找到文字转语音的模型。 * **可好好玩玩的项目**: * https://github.com/sunner/ChatALL * https://github.com/labring/FastGPT * https://github.com/songquanpeng/one-api * **个人博客**: * https://baoyu.io/ * https://gorden-sun.notion.site/527689cd2b294e60912f040095e803c5?v=4f6cc12006c94f47aee4dc909511aeb5 * **srt 2 lrc 歌词**:可以通过 https://gotranscript.com/subtitle-converter 将 srt 格式的字幕转换为 lrc 格式的歌词。 * **5 种速率限制**:OpenAI API 有 5 种速率限制:RPM(每分钟请求数)、RPD(每天请求数)、TPM(每分钟 tokens 数量)、TPD(每天 tokens 数量)、IPM(每分钟图像数量)。 * **扣子平台**:coze.cn 是一个扣子平台,可以提供各种扣子。 * **通过云函数免费使用 GPT-3.5**:可以通过 https://juejin.cn/post/7353849549540589587 免费使用 GPT-3.5。 * **不蒜子 统计网页基数**:可以通过 https://busuanzi.ibruce.info/ 统计网页的基数。 * **视频总结和翻译网页**:可以通过 https://glarity.app/zh-CN 总结和翻译视频。 * **视频翻译和配音工具**:可以通过 https://github.com/jianchang512/pyvideotrans 翻译和配音视频。 * **文字生成音频**:可以通过 https://www.cnblogs.com/jijunjian/p/18118366 将文字生成音频。 * **memo ai**:memo.ac 是一个多模态 AI 平台,可以将视频链接、播客链接、本地音视频转换为文字,支持多语言转录后翻译,还可以将文字转换为新的音频。 * **视频总结工具**:可以通过 https://summarize.ing/ 总结视频。 * **可每天免费玩玩**:可以通过 https://www.perplexity.ai/ 每天免费玩玩。 * **Suno.ai**:Suno.ai 是一个 AI 语言模型,可以通过 https://bibigpt.co/ 访问。 * **CapCut**:CapCut 是一个视频编辑软件,可以通过 https://www.capcut.cn/ 下载。 * **Valla.ai**:Valla.ai 是一个多模态 AI 模型,可以通过 https://www.valla.ai/ 访问。 * **Viggle.ai**:Viggle.ai 是一个 AI 视频生成平台,可以通过 https://viggle.ai 访问。 * **使用免费的 GPU 部署文生图大模型**:可以通过 https://www.cnblogs.com/xuxiaona/p/18088404 部署文生图大模型。 * **语音转文字**:可以通过 https://speech.microsoft.com/portal 将语音转换为文字。 * **投资界的 ai**:可以通过 https://reportify.cc/ 了解投资界的 ai。 * **抓取小视频 app 的各种信息**:可以通过 https://github.com/NanmiCoder/MediaCrawler 抓取小视频 app 的各种信息。 * **马斯克 Grok1 开源**:马斯克的 Grok1 模型已经开源,可以通过 https://github.com/xai-org/grok-1 访问。 * **ChatALL**:ChatALL 是一个跨端支持的聊天机器人,可以通过 https://github.com/sunner/ChatALL 访问。 * **零一万物**:零一万物是一个 AI 平台,可以通过 https://www.01.ai/cn 访问。 * **智普**:智普是一个 AI 语言模型,可以通过 https://chatglm.cn/ 访问。 * **memo ai 下载**:可以通过 https://memo.ac/ 下载 memo ai。 * **ffmpeg 学习**:可以通过 https://www.ruanyifeng.com/blog/2020/01/ffmpeg.html 学习 ffmpeg。 * **自动生成文章小工具**:可以通过 https://www.cognition-labs.com/blog 生成文章。 * **简易商城**:可以通过 https://www.cnblogs.com/whuanle/p/18086537 搭建简易商城。 * **物联网**:可以通过 https://www.cnblogs.com/xuxiaona/p/18088404 学习物联网。 * **自定义表单、自定义列表、自定义上传和下载、自定义流程、自定义报表**:可以通过 https://www.cnblogs.com/whuanle/p/18086537 实现自定义表单、自定义列表、自定义上传和下载、自定义流程、自定义报表。 **个人见解和思考** * ChatGPT 是一个强大的工具,可以用来提高工作效率和创造力。 * ChatGPT 的使用门槛较低,即使是非技术人员也可以轻松上手。 * ChatGPT 的发展速度非常快,未来可能会对各个行业产生深远的影响。 * 我们应该理性看待 ChatGPT,既要看到它的优点,也要意识到它的局限性。 * 我们应该积极探索 ChatGPT 的应用场景,为社会创造价值。

xiaoniu
Xiaoniu AI Video Translation is a video AI translation tool that can translate speech or subtitles in videos into multiple languages such as Chinese, English, Japanese, French, and Korean. It enables easy creation of multilingual versions and enhances global dissemination. It utilizes AI technology to generate new translated videos, automatically retaining background sound effects and replacing them with new translated voices, achieving precise synchronization of sound and mouth movements. Whether for creating short films or promoting videos on platforms like Douyin, TikTok, and YouTube, Xiaoniu AI Video Translation helps users easily overcome language barriers and broaden the reach of videos globally.

Thinking_in_Java_MindMapping
Thinking_in_Java_MindMapping is a repository that started as a project to create mind maps based on the book 'Java Programming Ideas'. Over time, it evolved into a collection of programming notes, blog posts, book summaries, personal reflections, and even gaming content. The repository covers a wide range of topics, allowing the author to freely express thoughts and ideas. The content is diverse and reflects the author's dedication to consistency and creativity.

hongbomiao.com
hongbomiao.com is a personal research and development (R&D) lab that facilitates the sharing of knowledge. The repository covers a wide range of topics including web development, mobile development, desktop applications, API servers, cloud native technologies, data processing, machine learning, computer vision, embedded systems, simulation, database management, data cleaning, data orchestration, testing, ops, authentication, authorization, security, system tools, reverse engineering, Ethereum, hardware, network, guidelines, design, bots, and more. It provides detailed information on various tools, frameworks, libraries, and platforms used in these domains.

Daily-DeepLearning
Daily-DeepLearning is a repository that covers various computer science topics such as data structures, operating systems, computer networks, Python programming, data science packages like numpy, pandas, matplotlib, machine learning theories, deep learning theories, NLP concepts, machine learning practical applications, deep learning practical applications, and big data technologies like Hadoop and Hive. It also includes coding exercises related to '剑指offer'. The repository provides detailed explanations and examples for each topic, making it a comprehensive resource for learning and practicing different aspects of computer science and data-related fields.

AI-Catalog
AI-Catalog is a curated list of AI tools, platforms, and resources across various domains. It serves as a comprehensive repository for users to discover and explore a wide range of AI applications. The catalog includes tools for tasks such as text-to-image generation, summarization, prompt generation, writing assistance, code assistance, developer tools, low code/no code tools, audio editing, video generation, 3D modeling, search engines, chatbots, email assistants, fun tools, gaming, music generation, presentation tools, website builders, education assistants, autonomous AI agents, photo editing, AI extensions, deep face/deep fake detection, text-to-speech, startup tools, SQL-related AI tools, education tools, and text-to-video conversion.

free-llm-collect
This repository is a collection of free large language models (LLMs) that can be used for various natural language processing tasks. It includes information on different free LLM APIs and projects that can be deployed without cost. Users can find details on the performance, login requirements, function calling capabilities, and deployment environments of each listed LLM source.