litong-ai-translator 中英翻译软件

联合创作 · 2025-02-18 07:49

基于大模型开发的中英翻译软件,提供了前端、后端、桌面端以及 Telegram 机器人多端支持。该项目旨在帮助用户快速进行中英双向翻译,体验更自然、流畅的翻译结果。

地址

功能特性

  • 大模型驱动:依托大模型提供更准确、更地道的翻译结果
  • 多端支持

    • Web 前端:在线体验,随时随地打开浏览器即可使用
    • 后端服务:提供 API 接口,可与其他应用或服务集成
    • 桌面端:基于 Tauri 构建的跨平台桌面应用
    • Telegram 机器人:在 Telegram 上直接调用翻译服务

  • 易于扩展:采用模块化架构,方便后续集成更多语言或更多大模型能力
  • 开源共享:项目完全开源,欢迎社区参与共建

项目结构

本项目由多个子仓库构成,功能相互独立又可协同工作:

  1. 前端

    • 仓库地址:ai-translator-frontend
    • 提供 Web 界面和基础交互功能,调用后端接口完成翻译

  2. 后端

    • 仓库地址:ai-translator-backend
    • 提供核心翻译逻辑和 API 接口,可与前端、桌面端以及第三方服务集成

  3. 桌面端

    • 仓库地址:tauri-translator
    • 基于 Tauri 技术栈,支持跨平台(Windows、macOS、Linux),提供桌面级体验

  4. 线上地址

  5. Telegram 机器人端

快速开始

下面以最常用的 Web 前后端模式为例,介绍如何本地部署。

前端部署

  1. 克隆前端仓库

    git clone https://github.com/litongjava/ai-translator-frontend.git

     

  2. 安装依赖

    cd ai-translator-frontend

    npm install

     

  3. 启动开发服务器

    npm run dev

     

  4. 打包构建(可选)

    npm run build

     

    构建完成后会在 dist/ 目录下生成静态资源,可用于生产环境部署。

后端部署

  1. 克隆后端仓库

    git clone https://github.com/litongjava/ai-translator-backend.git

     

  2. 安装依赖并启动服务

    • 如果是 Java/Spring Boot 项目,请参考 README 或对应的文档进行构建和运行;一般可执行以下步骤:

      cd ai-translator-backend

      # 如果使用 Maven

      mvn clean package

      java -jar target/xxx.jar

       

    • 如果是 Node.js 项目,则:

      npm install

      npm run start

       

  3. 配置环境变量

    • 如果需要调用外部大模型 API(如 OpenAI),请在 .env 文件或系统环境变量中设置相关密钥,例如:

      OPENAI_API_KEY=your_openai_api_key

       

    • 其他自定义配置也可以在 .env 文件中进行。

  4. 确认后端启动成功后,即可通过浏览器访问前端页面并进行翻译测试。

桌面端使用

点击这里下载客户端 安装使用

Telegram 机器人

  1. 打开 @litongjava_bot
  2. 点击 Start(或发送 /start 命令)
  3. 直接发送要翻译的文本,即可获得中英文互译结果

浏览 1
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报