Github Daily Trending

发布于

这是一份包含多个热门开源项目的摘要,涵盖了人工智能(AI)领域的多个热门方向。其中Deep-Live-Cam是一款基于单张图片实现实时换脸和视频深度伪造的工具,强调易用性和实时性,同时内置伦理风险检查。Qwen-Agent是基于通义千问模型构建的智能体框架,集成了函数调用、代码解释器和RAG等功能,用于简化AI Agent开发。teable是下一代无代码Airtable替代品,基于Postgres构建,支持大规模数据和实时协作,提供多种视图和企业级功能(部分)。Hyperswitch是用Rust编写的开源支付中转系统,旨在提供快速、可靠、经济的支付解决方案,统一支付接口并支持丰富的路由和管理功能。Python-100-Days提供了一个为期100天的Python学习计划,从基础到高级应用、Web开发、数据分析和机器学习,适合初学者系统学习。Agent-S是一个像人类一样使用计算机的开放Agent框架,特别是Agent S2,通过捕获屏幕并利用大模型理解视觉信息,实现计算机任务的自动化操作。Qwen3是阿里云通义最新发布的强大大型语言模型系列,包含多种规模和类型的模型,在推理能力、人类偏好对齐和Agent能力方面有显著提升。uptime-kuma是一款用户友好的自托管监控工具,支持多种监控类型、丰富的通知服务和精美的界面。Zed是由Atom创建者开发的高性能、多人协作代码编辑器,主要用Rust编写,目前支持macOS和Linux,Windows版本正在开发中。ai-engineering-hub是一个汇集LLM、RAG和实际AI Agent应用深度教程和代码示例的资源库,旨在帮助开发者提升AI工程技能。Daytona提供了安全且弹性的基础设施,专门用于运行AI生成的代码,通过快速创建隔离沙sandbox环境来降低风险。open-webui是一个开源、用户友好的自托管AI平台,支持Ollama、OpenAI API,内置RAG引擎,提供多种功能如多语言支持、权限管理和多模型对话。transformerlab-app是一款开源应用,用于在本地进行高级LLM工程,支持模型下载、训练、微调、评估和多种推理引擎集成。english-note是一个面向程序员的英语语法学习笔记项目,旨在帮助程序员群体从零开始系统学习英语语法,并通过社区协作进行维护。MNN是阿里巴巴开发的轻量级高性能深度学习推理与训练框架,在实际业务中经过验证,支持多种模型和平台,并提供了LLM和扩散模型的运行时方案。总体而言,这些项目覆盖了从AI模型应用(换脸、Agent、LLM)、开发框架、基础设施(支付、代码运行环境)、开发工具(代码编辑器)、学习资源(Python、英语语法)到系统监控等多个热门技术领域,反映了当前开源社区在这些方向的活跃和创新。

Deep-Live-Cam

仅用一张图像实现实时换脸和一键视频深度伪造

作者: hacksider | 仓库: Github 链接 语言: Python | Stars: 56407 Forks: 8052 | Recent Stars 1311

项目简介

Deep-Live-Cam:基于单张图片实现实时换脸和一键生成视频深度伪造

Deep-Live-Cam 是一个强大的开源工具,允许用户仅通过一张源图像即可实现实时换脸功能,并能便捷地在视频中生成深度伪造内容。该项目专注于提供高效且易于操作的实时AI应用。

核心功能包括:

  • 实时换脸与视频深度伪造: 用户可以轻松将一张脸替换到摄像头捕捉的画面或现有视频中的人脸上。
  • 简易操作: 提供“三步快速启动”流程,用户只需选择源脸部图片、选择摄像头并点击“直播”即可开始实时换脸。
  • 进阶功能: 支持“嘴部遮罩”以保留原始嘴部动作的准确性,以及“人脸映射”以便在多个主体上同时使用不同的脸部模型。用户还能尝试在观看电影时实时替换其中角色的脸部,或者用于直播表演和在线互动平台。

该项目强调其在AI生成媒体行业的生产力工具潜力,例如协助艺术家创作定制角色、制作引人入胜的内容等。项目开发者认识到潜在的伦理风险,已内置内容检查机制,以防止处理不当媒体(如裸露、血腥或敏感内容)。开发者承诺会负责任地持续开发,并表示如法律要求,可能会停止项目或添加水印。

安装方面,项目提供了Windows系统的预编译版本,方便非技术用户快速使用。对于需要手动安装的用户,项目提供了详细的Python环境搭建、代码克隆、模型下载以及依赖安装指南,并提供了针对NVIDIA CUDA、Apple Silicon CoreML、Windows DirectML和Intel OpenVINO等不同硬件平台的GPU加速配置方法。项目界面简洁,支持图像/视频模式(将脸部替换到静态图像或视频中)和摄像头模式(实时进行脸部替换)。项目还提供了详细的技巧和教程,指导用户如何优化深伪效果、应用于视频通话、直播等场景。

总体而言,Deep-Live-Cam是一款功能丰富且易于使用的实时换脸和深度伪造工具,虽然具有强大的创作潜力,但开发者也强调了负责任和符合伦理的使用原则。


Qwen-Agent

基于通义千问>=2.0的智能体框架及应用,包含函数调用、代码解释器、RAG和Chrome扩展

作者: QwenLM | 仓库: Github 链接 语言: Python | Stars: 7585 Forks: 651 | Recent Stars 216

项目简介

Qwen-Agent是基于Qwen 2.0以上版本开发的大语言模型应用框架,专注于增强模型的指令遵循、工具使用、规划和记忆能力。该框架的核心特点包括支持函数调用(Function Calling)、代码解释器(Code Interpreter)、检索增强生成(RAG)以及Chrome浏览器扩展。目前,Qwen-Agent已作为Qwen Chat的后端。

该项目提供了开发代理应用的原子组件(如继承自BaseChatModel的LLMs和继承自BaseTool的Tools)和高层组件(如继承自Agent的Agents)。用户可以利用这些组件构建自己的Agent,例如一个能够读取PDF文件、使用内置工具(如代码解释器)和自定义工具的Agent。框架还提供了便捷的Gradio GUI接口,方便快速部署Agent的Web Demo。

文档中提供了详细的安装指南,支持通过PyPI安装稳定版或从源代码安装最新开发版,并可通过可选依赖安装包括GUI、RAG、Code Interpreter和MCP支持。关于模型服务,用户可以选择阿里云DashScope提供的服务,或者部署并使用自己的开源Qwen模型服务(兼容OpenAI API),并强调了使用DashScope API Key或配置自部署服务时的注意事项。在开发自定义Agent方面,通过示例代码展示了如何添加自定义工具、配置LLM以及创建和运行Agent。

Qwen-Agent还包含了BrowserQwen应用,作为基于该框架构建的浏览器助手。文档中也包含了FAQ部分,回答了如何使用MCP、是否支持函数调用以及如何处理超长文档问答等常见问题,并提供了相应的示例链接。特别提醒用户,代码解释器不是沙盒环境,不应直接用于生产环境或执行危险任务,并给出了MCP使用的详细说明和所需依赖。

总的来说,Qwen-Agent为开发者提供了一个灵活强大的框架,用于构建基于Qwen模型的各种Agent应用,并集成了多项核心功能,旨在简化开发流程并提升Agent的能力。


teable

✨ 下一代 Airtable 替代方案:无代码 Postgres

作者: teableio | 仓库: Github 链接 语言: TypeScript | Stars: 18014 Forks: 881 | Recent Stars 67

项目简介

Teable:下一代 Airtable 替代品,基于 Postgres 的无代码应用

Teable是一个开源项目,旨在成为下一代 Airtable 的有力替代品。其核心特点是基于 Postgres 数据库,提供类似电子表格的直观用户界面,用于构建强大的数据库应用程序。项目强调实时协作和处理百万级数据的能力。

该项目提供了多种功能,包括数据聚合、附件预览、批量编辑、图表、评论、自定义列、字段转换、过滤、格式化、公式支持、分组、历史记录、导入/导出、支持百万行数据、插件、实时更新、搜索、排序、SQL 查询、撤销/重做和数据验证。此外,Teable 支持多种视图模式,如网格视图、表单视图、看板视图、画廊视图和日历视图,并提供图表和仪表盘功能,以满足不同数据可视化需求。

Teable 社区版在 AGPL 许可下免费提供自托管选项,而企业版则包含更多高级功能,如 AI集成、权限矩阵、自动化工作流和高级管理选项。项目的核心代码库采用单仓库(monorepo)管理,结构清晰,包含前端(Next.js)、后端(NestJS)以及各种共享包和插件。项目提供了便捷的部署方式,支持 Docker 部署和一键部署到 Railway、Sealos 等平台,降低了用户入门门槛。

Teable 项目团队认为未来的无代码产品应具备用户友好的界面、便捷的数据访问和管理能力、自托管的数据隐私选项、对开发者友好、支持处理大规模数据、灵活的集成能力以及原生的 AI 集成。 Teable 正是基于这些理念进行构建,旨在为技术和非技术用户提供一个全面的、可扩展的解决方案。


hyperswitch

用 Rust 编写的开源支付交换系统:让支付更快速、可靠且经济实惠

作者: juspay | 仓库: Github 链接 语言: Rust | Stars: 17291 Forks: 2065 | Recent Stars 520

项目简介

Hyperswitch:开源支付中转平台概述

Hyperswitch 是由 Juspay 开发并开源的支付中转平台,使用 Rust 语言编写,旨在为企业提供快速、可靠且经济实惠的支付解决方案。其核心目标是统一支付体验,降低复杂性,并提高支付处理效率。

作为一个开源支付编排平台,Hyperswitch 提供了一个单一的 API 接口,用于访问整个支付生态系统及其丰富的功能。平台包含三个关键组件:

  1. 后端 (Hyperswitch Backend): 负责处理核心支付流程,包括授权、身份验证、作废和捕获工作流,以及退款和拒付处理等后支付流程。它还支持与外部欺诈风险管理 (FRM) 和身份验证提供商集成,并提供高度可定制的支付路由,如成功率路由、规则路由、流量分配、备用处理以及基于特定错误代码的智能重试机制。

  2. SDK (前端): 提供 Web、Android 和 iOS 版本,统一了银行卡、电子钱包、先买后付 (BNPL)、银行转账等多种支付方式的用户体验,并支持不同支付服务提供商 (PSP) 的多样化支付流程。结合支付保存功能,用户可以轻松使用已保存的支付方式。

  3. 控制中心 (Hyperswitch Control Center): 一个无需编码即可管理整个支付堆栈的界面。用户可以通过它创建路由和重试的工作流,定义调用 3DS、FRM 和附加费模块的条件。控制中心提供跨所有集成 PSP 的交易、退款和拒付操作视图,以及用于初步调试的交易级日志和详细的支付性能分析。

Hyperswitch 提供多种部署和试用方式,包括使用 Docker compose 的本地设置、基于 AWS CDK、GCP 和 Azure Helm charts 的云端部署,以及一个托管的沙盒环境供快速产品体验。

该项目的愿景是成为“支付界的 Linux”,通过提供一个精心设计的参考平台和可重用核心堆栈,帮助企业构建和定制自己的支付解决方案,以应对快速发展的支付领域。项目强调拥抱支付多样性、开源、社区驱动、系统软件质量以及为开发者、客户和合作伙伴创造最大价值。

Hyperswitch 遵循 Apache 2.0 许可证,并由 Juspay 的庞大工程团队维护。


Python-100-Days

Python - 100天从新手到大师

作者: jackfrued | 仓库: Github 链接 语言: Jupyter Notebook | Stars: 165366 Forks: 53664 | Recent Stars 70

项目简介

Python - 100天从新手到大师

这份内容提供了一份为期100天的Python学习计划,旨在帮助初学者逐步掌握Python编程,并深入到各个应用领域,最终达到“大师”的水平。该计划由骆昊(Python-Jack)编写和维护,并在GitHub上开源。内容涵盖了Python语言基础(变量、运算符、控制结构、数据结构、函数、面向对象编程等),Python语言应用(文件读写、异常处理、数据序列化、第三方库使用、正则表达式等),数据库基础和进阶(关系型数据库、SQL、MySQL、大数据平台等),实战Django框架进行Web开发(模型、静态资源、session、报表、中间件、前后端分离、RESTful API、缓存、异步任务、单元测试、项目上线等),网络数据采集(爬虫原理、requests库、解析技术、并发编程、Selenium、Scrapy等),Python数据分析(NumPy、pandas、数据可视化工具),以及机器学习入门(K近邻、决策树、朴素贝叶斯、回归模型、聚类算法、集成学习、神经网络、自然语言处理、机器学习实战)。

此外,内容还探讨了团队项目开发的相关问题和解决方案,如软件过程模型(瀑布模型、敏捷开发Scrum)、团队组建、编程规范、代码审查及团队开发工具。还包含了Docker容器技术、MySQL性能优化、网络API接口设计以及项目部署上线和性能调优等进阶内容。最后,提供了针对面试的公共问题,涵盖计算机基础、Python基础、Web框架、爬虫、数据分析和项目经验。整个学习计划结构清晰,从基础知识到高级应用和实战项目,为Python学习者提供了一条全面的学习路径。


Agent-S

Agent S:一个像人类一样使用计算机的开放代理框架

作者: simular-ai | 仓库: Github 链接 语言: Python | Stars: 3805 Forks: 373 | Recent Stars 244

项目简介

Agent S2:一个用于复杂计算机任务的泛化-特化agent框架

本文档介绍了 Agent S 和 Agent S2,这是一个开源的agent框架系列,旨在实现类人般的计算机自主操作。特别是 Agent S2,它是一个组合式的通用-专业框架,专注于通过agent-计算机接口(ACI)实现自主的 GUI agent。 Agent S2 框架利用屏幕截图输入,并通过一个基础模型(推荐使用UI-TARS或Claude等)来实现视觉定位(坐标预测),将高级指令转化为具体的执行操作(例如使用 pyautogui 执行点击、输入等 python 代码)。

文档重点介绍了 Agent S2 在多个计算机使用agent基准测试上的最新成果,包括 OSWorld、WindowsAgentArena 和 AndroidWorld,显示其在成功率方面超越了先前的一些先进方法(如 UI-TARS、OpenAI CUA、NAVI)。框架支持多种大型语言模型(LLM)API 提供商作为其主要生成模型和基础模型,并提供了详细的安装和设置指南,包括如何配置必要的 API 密钥以及可选的基于 Perplexica 的网络知识检索功能。

Agent S2 可以通过命令行接口(CLI)或作为 gui_agents SDK 进行使用。SDK的使用示例展示了如何通过获取屏幕截图、定义agent和基础模型参数、然后调用agent来预测和执行操作。框架还使用一个持续更新的知识库来增强推理能力,该知识库可以根据需要进行下载。

总的来说,Agent S2 提供了一个强大的、开源的框架,用于构建能够像人类一样使用计算机的agent,并在多个任务中展示了卓越的性能。


Qwen3

Qwen3 是阿里云通义团队开发的大语言模型系列

作者: QwenLM | 仓库: Github 链接 语言: Shell | Stars: 19849 Forks: 1298 | Recent Stars 312

项目简介

阿里云通义实验室发布了 Qwen3 大型语言模型系列,该系列是 Qwen 家族的最新成员,代表了团队迄今为止最先进、最智能的系统。Qwen3 在开发经验的基础上进行了改进,提供了多种模型,包括密集模型和混合专家模型 (MoE),规模涵盖 0.6B 到 235B 不等。

Qwen3 的主要亮点包括:

  • 模型多样性: 提供多种规模的密集和 MoE 模型。
  • 思维模式切换: 可以在复杂的逻辑推理、数学和编码的“思维模式”与高效、通用聊天的“非思维模式”之间无缝切换 Lmstudio llama.cpp ollama mlx-lm SGLang vLLM MindIE 。
  • 显著增强的推理能力: 在数学、代码生成和常识逻辑推理方面超越了之前的 QwQ 和 Qwen2.5 版本。
  • 更优秀的人类偏好对齐: 在创意写作、角色扮演、多轮对话和指令遵循方面表现出色,提供了更自然、引人入胜的对话体验。
  • 强大的 Agent 能力: 支持在思维和非思维模式下与外部工具集成,在复杂 Agent 任务中达到开源模型的领先水平。
  • 多语言支持: 支持 100 多种语言和方言,具有强大的多语言指令遵循和翻译能力。

文档详细介绍了 Qwen3 的基本用法、推理、本地运行、部署、量化和训练等方面。用户可以通过 Hugging Face 或 ModelScope 获取 Qwen3 模型 checkpoint。此外,文档还提供了 Python 代码示例,演示了如何使用 Transformers 库加载和运行 Qwen3 模型,并介绍了 "思维模式" 的控制方法。同时,Qwen3 也得到了 llama.cpp, Ollama, LMStudio, MLX LM, SGLang, vLLM 等多种推理框架和工具的支持。

Qwen3 模型的开源版本遵循 Apache 2.0 许可协议。用户可以通过 Discord 或微信群等渠道与研究团队和产品团队联系。


uptime-kuma

一个炫酷的自托管监控工具

作者: louislam | 仓库: Github 链接 语言: JavaScript | Stars: 68466 Forks: 6012 | Recent Stars 232

项目简介

开源自托管监控工具 Uptime Kuma 概览

Uptime Kuma是一个易于使用的自托管监控工具,旨在提供一种类似“Uptime Robot”的功能,但更加美观和易于使用。其主要特点包括:

多样的监控类型:支持监控 HTTP(s)、TCP、HTTP(s) 关键词、HTTP(s) Json 查询、Ping、DNS 记录、Push、Steam 游戏服务器以及 Docker 容器的运行状态。

用户友好的界面:拥有精美、响应迅速且快速的用户界面(UI/UX)。

丰富的通知服务:支持超过 90 种通知服务,包括 Telegram、Discord、Gotify、Slack、Pushover、电子邮件(SMTP)等。

快速检查间隔:监控检查间隔低至 20 秒。

多语言支持:提供多种语言版本。

灵活的状态页面:支持创建多个状态页面,并将状态页面映射到特定域名。

可视化图表:提供 Ping 图表和证书信息。

高级功能:支持代理和双因素认证(2FA)。

安装方法:提供 Docker 和非 Docker 两种安装方式,详细说明了安装步骤和注意事项,尤其强调了不支持 NFS 等文件系统。

更新机制:提供了详细的更新指南。

项目动力:开发者创建该工具是由于市面上缺乏合适的自托管监控工具,并希望构建一个精美的 UI,同时学习 Vue 3 和 vite.js,展示 Bootstrap 5 的能力,并尝试使用 WebSocket。


zed

思如泉涌般编程——Zed:来自 Atom 和 Tree-sitter 创建者的高性能、多人代码编辑器

作者: zed-industries | 仓库: Github 链接 语言: Rust | Stars: 57830 Forks: 3989 | Recent Stars 124

项目简介

Zed:高性能、多人协作的代码编辑器

Zed是一款由创建了Atom和Tree-sitter的团队开发的,专注于提供极致性能和支持多人协作的代码编辑器。它旨在让开发者以“思维的速度”进行编码。

该项目托管在GitHub上,代码的主要语言是Rust(占比达98.4%),同时也使用了Tree-sitter Query、Shell、Metal和WGSL等语言。

根据内容显示,Zed目前支持macOS和Linux平台,并提供了直接下载或通过包管理器安装的方式。Windows和Web版本的支持正在进行中(有相应的跟踪问题)。对于有兴趣参与Zed开发的开发者,项目提供了详细的macOS、Linux和Windows构建指南,以及本地运行协作功能的说明。

项目采用了多种许可,包括AGPL、APACHE和GPL-3.0。 CI(持续集成)流程会检查第三方依赖的许可合规性,并使用了cargo-about工具进行自动化管理。贡献者需要确保他们新增的依赖符合许可要求,并在必要时更新许可配置文件。

项目的开发活动频繁,最近的提交涉及代理线程完成模式的非可选化、Nix构建的清理、文档更新、工作空间配置调整、CI测试优化、以及与Docker Compose相关的配置和数据库设置等。这些提交反映了项目在性能优化、协作功能、构建系统、文档和基础设施方面的积极改进。

此外,项目欢迎贡献者,并在其官网提供了招聘信息。


ai-engineering-hub

深入剖析 LLM、RAG 和实际 AI Agent 应用

作者: patchy631 | 仓库: Github 链接 语言: Jupyter Notebook | Stars: 8887 Forks: 1486 | Recent Stars 243

项目简介

AI工程中心:LLMs、RAGs和AI智能体的深度教程资源集锦

该资源库致力于为AI工程师提供深入学习和实践大型语言模型(LLMs)、检索增强生成(RAGs)以及真实世界AI智能体应用的宝贵资源。项目旨在帮助用户跟上快速发展的AI工程领域,并通过丰富的教程、代码示例和项目实践,提升在LLMs、RAGs及AI智能体应用方面的专业能力。

资源库的重点内容包括:

  • LLMs和RAGs的深度教程:提供关于大型语言模型工作原理、应用技巧以及检索增强生成技术的详细指导。
  • 真实世界AI智能体应用:展示和提供各种实际AI智能体应用的案例和代码,例如股票分析师、内容规划师、文档聊天应用、酒店机票预订智能体等,覆盖金融、多模态处理、信息提取等多个领域。
  • 代码示例和项目文件:库中包含大量分门别类的文件夹,对应不同的项目或教程,例如 agentic_ragcolbert-ragdeepseek-multimodal-RAG 等,方便用户直接参考和运行代码进行学习和实验。

该资源库欢迎社区贡献,用户可以通过提交Pull Request来分享新的教程、改进现有代码或报告问题,共同促进AI工程领域的发展。项目采用MIT许可证,用户可以自由使用和修改代码。

对于希望深入了解LLMs、RAGs和AI智能体开发与实践的工程师和开发者来说,这是一个非常有价值的集线中心。


daytona

Daytona 是运行 AI 生成代码的安全和弹性基础设施

作者: daytonaio | 仓库: Github 链接 语言: TypeScript | Stars: 17658 Forks: 1872 | Recent Stars 640

项目简介

Daytona:安全、弹性,专为运行AI生成代码打造

Daytona 提供了一个安全且具有弹性的基础设施平台,专门用于运行AI生成的代码。其核心优势在于能够快速创建隔离的“沙盒”环境,确保从代码到执行的过程在极短时间内完成(低于90毫秒),同时将AI代码的执行风险与核心基础设施完全隔离。

该平台具备多项关键特性,包括闪电般的快速基础设施、隔离和安全的运行时环境、对AI工作流程的大规模并行处理(即将推出)以及通过API进行程序化控制(包括文件、Git、LSP和Execute API)。此外,Daytona支持无限期的沙盒持久化,并且与OCI/Docker兼容,允许用户使用任何OCI/Docker镜像来创建沙盒。

用户可以通过安装Python SDK(pip install daytona-sdk)或TypeScript SDK(npm install @daytonaio/sdk)来使用Daytona。快速入门步骤包括创建账户、生成API密钥,然后参照入门文档即可开始创建和运行代码沙盒。文档提供了使用Python和TypeScript SDK创建和运行代码的示例代码。

Daytona 是一个开源项目,遵循AGPL-3.0许可证,鼓励社区贡献。项目代码库活跃,拥有17.7k的星和1.9k的 fork,主要使用的编程语言包括TypeScript、Python、JavaScript和Go。Daytona旨在为开发者提供一个可靠的环境来测试和运行AI生成的代码,同时确保安全性和工作效率。


open-webui

人性化设计的AI界面(支持 Ollama, OpenAI API 等)

作者: open-webui | 仓库: Github 链接 语言: JavaScript | Stars: 92501 Forks: 11725 | Recent Stars 164

项目简介

Open WebUI是一个友好的、功能丰富的自托管人工智能平台,旨在完全离线运行。它支持Ollama和OpenAI兼容的API等多种大型语言模型(LLM)运行器,并内置了用于检索增强生成(RAG)的推理引擎,使其成为一个强大的人工智能部署解决方案。该项目具有易于设置的特点,可以通过Docker或Kubernetes进行安装,支持:ollama:cuda镜像。它能轻松集成OpenAI兼容的API和Ollama模型,并支持连接到LMStudio、GroqCloud、Mistral等服务。Open WebUI提供细粒度的权限和用户组管理,确保安全的环境。它具有响应式设计,支持桌面、笔记本电脑和移动设备,并提供移动端的渐进式网络应用(PWA)。其他功能包括完整的Markdown和LaTeX支持、免提语音/视频通话功能、模型构建器(用于创建、定制和导入模型)、原生的Python函数调用工具、本地RAG集成、Web搜索功能(使用多种搜索引擎)以及Web浏览能力。此外,它还支持图像生成(通过AUTOMATIC1111 API、ComfyUI或OpenAI的DALL-E)、多模型同时对话、基于角色的访问控制(RBAC)、多语言支持以及通过Pipelines插件框架扩展功能。该项目持续更新,提供了多种安装方法,包括pip和Docker。安装指南清晰,并提供了故障排除建议。项目遵循BSD-3-Clause许可证,并通过Discord社区提供支持。Open WebUI具有高度的可定制性和广泛的功能,旨在为用户提供一个强大且用户友好的LLM交互平台。


transformerlab-app

针对高级大语言模型工程的开源应用:在您的电脑上与大型语言模型进行交互、训练、微调和评估

作者: transformerlab | 仓库: Github 链接 语言: TypeScript | Stars: 2786 Forks: 202 | Recent Stars 87

项目简介

开源大型语言模型高级工程应用

这份摘要介绍了一个名为 “Transformer Lab” 的开源应用程序,旨在为用户提供一个在个人计算机上进行高级大型语言模型(LLM)工程的工具。该应用允许用户与大型语言模型进行交互、训练、微调和评估。它被描述为一个100%开源的工具包,得到了 Mozilla 的支持并参与了 Mozilla Builders Program。

Transformer Lab 的核心功能非常丰富。用户可以一键下载数百个流行的模型,包括 DeepSeek, Llama3, Qwen, Phi4, Gemma, Mistral, Mixtral 等,也可以从 Huggingface 下载任意 LLM。该应用支持跨不同硬件进行微调和训练,例如利用 MLX 在 Apple Silicon 上以及使用 Huggingface 在 GPU 上。它还支持 RLHF(从人类反馈中强化学习)和各种偏好优化方法,如 DPO、ORPO 和 SIMPO,以及奖励建模。

Transformer Lab 提供了跨操作系统的支持,包括 Windows、MacOS 和 Linux 应用程序。用户可以通过友好的图形用户界面进行模型聊天、完成文本、使用预设(模板化)提示、查看聊天历史、调整生成参数、进行批量推理,甚至在 alpha 阶段支持工具使用和函数调用。它集成了多种推理引擎,包括 MLX、Huggingface Transformers、vLLM 和 Llama CPP。此外,该应用还具备模型评估、RAG(检索增强生成)功能(支持拖放文件),以及构建训练数据集(可从 HuggingFace 或自定义数据集)的能力。它能计算嵌入、提供完整的 REST API,并支持在本地或云端运行,界面与计算引擎可分离。

Transformer Lab 还允许用户在不同平台(Huggingface, MLX, GGUF)之间转换模型,支持插件扩展功能(可编写自己的插件),内置了 Monaco 代码编辑器方便编辑插件和查看后台操作,以及简便的修改系统消息或提示模板的提示编辑功能。它还提供推理日志,记录 RAG 或推理过程中向 LLM 发送的原始查询。

总的来说,Transformer Lab 是一个功能强大且易于使用的开源平台,为开发者和爱好者提供了在本地环境探索和改进大型语言模型的全面工具集。


english-note

从零开始学习英语语法

作者: hzpt-inet-club | 仓库: Github 链接 语言: | Stars: 3517 Forks: 327 | Recent Stars 39

项目简介

从零开始学习英语语法:一个面向程序员的语法笔记项目

这份文档介绍了一个名为“english-note”的开源项目,其目标是帮助对英语语法薄弱(尤其是计算机编程领域的开发者)的学习者,从零开始系统地学习英语语法。项目的发起人认为,在当今社会,掌握英语对程序员的发展至关重要,良好的英语能力可以显著提高学习效率,甚至成为竞争优势。

项目参考了知名开发者尤雨溪关于英语学习方法的观点,强调语法并非死记硬背,而是理解复杂句子的工具,是培养语感的前提。在掌握基础语法后,应更侧重主动使用,通过阅读、听力、写作和口语练习来提升语感。除了语法笔记,项目后续计划结合“百词斩”和“新概念英语”等工具进行单词和教材的学习辅助。

“english-note”项目托管在 GitHub 上,并提供了两种使用方式:直接访问在线网页链接(推荐方式)和克隆代码到本地运行。项目基于 VuePress 构建文档,并利用 GitHub Actions 实现自动化部署。所有语法笔记内容都以 MarkDown 格式存储在 docs 文件夹中。

项目采用 MIT 许可证,并欢迎社区成员的贡献,无论是提出 issues 改进建议,还是提交 pull requests 修改内容。文档中也列出了内容和人员的贡献者名单,体现了项目的开放性和社区协作精神。总而言之,这是一个为了帮助程序员群体提升英语语法能力而创建并维护的开源学习资源。


MNN

MNN:超快、轻量级的深度学习框架,在阿里巴巴的业务关键用例中经过实战检验。全功能多模态大型语言模型 Android 应用:MNN-LLM-Android

作者: alibaba | 仓库: Github 链接 语言: C++ | Stars: 10495 Forks: 1828 | Recent Stars 45

项目简介

MNN:轻量级高性能深度学习推理与训练框架

MNN 是阿里巴巴开发并经过实际业务场景验证的轻量级深度学习框架,具备极高的推理和训练性能。它在阿里巴巴的多个核心应用(如淘宝、天猫等)中广泛应用,覆盖直播、短视频、搜索推荐、图像搜索、互动营销、风控等 70 多个场景,同时也被应用于物联网等嵌入式设备。

MNN 的核心特色包括:轻量化、多功能和高性能。在轻量化方面,MNN 对设备端进行了深度优化,无外部依赖,易于部署。针对不同平台(iOS、Android)和不同配置,其库文件大小控制在很小的范围内,并支持 FP16 / Int8 量化,可显著减小模型体积。在多功能方面,MNN 支持转换多种主流框架模型,包括 TensorFlow、Caffe、ONNX、Torchscripts,并支持 CNN、RNN、GAN、Transformer 等多种网络结构,以及多输入多输出、动态输入、控制流等复杂特性。 converter 支持大量常用 OP。MNN 适配 iOS 8.0+、Android 4.3+ 以及支持 POSIX 接口的嵌入式设备,并可进行 CPU/GPU 混合计算。在高性能方面,MNN 核心计算使用了大量汇编优化代码,充分利用 ARM / x64 CPU 性能,支持 Metal / OpenCL / Vulkan / CUDA 等 GPU 推理加速,并针对如 Winograd 等算法进行优化,对 ARM v8.2 的 FP16 和 Int8 计算有显著加速。

MNN 还提供了丰富的配套工具:

  • MNN-Converter:用于模型转换和图优化。
  • MNN-Compress:用于模型压缩,减小体积并提升性能。
  • MNN-Express:支持带控制流的模型,进行通用计算。
  • MNN-CV:基于 MNN 的轻量级图像处理库。
  • MNN-Train:支持 MNN 模型训练。

近期新闻亮点包括发布支持多模态 LLM 的 Android 和 iOS 应用,以及对 Deepseek 和 Qwen3 等大型语言模型的支持。MNN 团队积极维护并同步内部开发进展。MNN-LLM 是基于 MNN 的大型语言模型运行时解决方案,旨在实现在移动设备、PC、IOT 等平台本地部署 LLM 模型。MNN-Diffusion 则是基于 MNN 的稳定扩散模型运行时方案。

MNN 项目在 OSDI’22 顶会发表了相关论文,介绍了其设计原则和性能表现。社区讨论主要以中文为主,但欢迎并支持英文用户。项目遵循 Apache 2.0 许可证,并借鉴了 Caffe、ONNX、TensorFlow 等多个优秀开源项目的技术。