首页 > 其他分享 >使用官方开源项目搭建自有Overleaf服务

使用官方开源项目搭建自有Overleaf服务

时间:2024-10-06 13:33:08浏览次数:1  
标签:overleaf 服务 tlmgr Overleaf 开源 https texlive 搭建

Overleaf对于使用LaTex编辑论文的科研工作者和研究生来说扮演着重要的角色,可以说贯穿了从论文初稿的撰写到提交的全过程,而Overleaf作为一个由商业公司运作的云服务产品,即便对免费用户施加的限制很少(只有编译时间和频率的限制),也不足以覆盖研究工作者全部常见的应用场景,加上其每月9美元的订阅费用,对于中国的研究工作者而言,还是贵了一些。

不过好在Overleaf对其产品做了开源,这就为广大科研工作者利用研究机构的提供的硬件资源部署自有的Latax排版服务。

本篇将提供使用官方开源项目在服务器上部署Overleaf服务的教程。

基础环境要求和配置

硬件资源需要能够流畅运行Ubuntu操作系统,且有足够的内存和硬盘空间。

本篇所使用的软件配置:

  1. Ubuntu 20.04
  2. Docker 4.33.0
  3. Git

配置步骤

  1. 下载Overleaf官方源代码
git clone https://github.com/overleaf/toolkit.git ./overleaf-toolkit && cd overleaf-toolkit

下载完成之后,在overleaf-toolkit文件夹内有很多用来管理相关功能的脚本;

  1. 初始化并修改配置
bin/init

这条命令会在./config目录下生成三个文件:

overleaf.rc     variables.env     version

这些文件中的配置可以根据需要修改,这里介绍几个常用的。

overleaf.rc 文件中的下面几个配置一般来说需要一开始修改:

# 这里的IP地址可以替换成服务器的IP,如果是在自己电脑上本地部署,则可以忽略
OVERLEAF_LISTEN_IP=127.0.0.1
# 这里的端口是Overleaf服务的监听端口,这里用的是9000,只要不冲突即可
OVERLEAF_PORT=9000
  1. 启动服务
    输入下面的命令启动服务:
bin/up

如果是需要后台启动,请使用-d参数。

  1. 补全宏包
    默认情况下,overleaf使用的texlive中宏包是不全的,因此需要额外下载。

这里先输入

bin/shell

进入容器内部,执行下面的代码来下载补全宏包

# 下载并运行升级脚本
wget http://mirror.ctan.org/systems/texlive/tlnet/update-tlmgr-latest.sh
sh update-tlmgr-latest.sh -- --upgrade
# 更换texlive的下载源
tlmgr option repository https://mirrors.sustech.edu.cn/CTAN/systems/texlive/tlnet/
# 升级tlmgr
tlmgr update --self --all
# 安装完整版texlive(时间比较长,不要让shell断开)
tlmgr install scheme-full

至此,在浏览器中输入IP:端口即可访问自己部署的Overleaf服务了。
如果提示需要注册,可以访问IP:端口/launchpad/来注册。

一些其他可能需要的配置

对于很多需要自己部署Overleaf写作的人,往往是因为所需要编译的论文过大,这种过大的情况往往是毕业论文,而毕业论文往往要用到中文,因此,这里额外给出配置中文的一种方式

在文件中引入宏包

\usepackage[UTF8]{ctex}

在编辑页面的左上角的menu菜单中,更改Overleaf编译引擎为XeLaTex

然后,Overleaf可以正常编译中文了。

如果因为一些格式的要求,规定不允许使用这种方式,读者可以自行搜索其他方式。

参考资料

https://yangzhang.site/Note/NAS/self-hosted-overleaf/
https://blog.wsine.top/posts/selfhost-overleaf-for-thesis/
https://blog.csdn.net/rolling0707/article/details/86220557

标签:overleaf,服务,tlmgr,Overleaf,开源,https,texlive,搭建
From: https://www.cnblogs.com/joyliu9562/p/18449020

相关文章

  • 搭建Redis“主-从-从”模式集群并使用 RedisTemplate 实现读写分离
    一、理论相关我们知道,Redis具有高可靠性,其含义包括:数据尽量少丢失-AOF和RDB服务尽量少中断-增加副本冗余量,将一份数据同时保存在多个实例上,即主从库模式Redis主从库模式-保证数据副本的一致(读写分离):读操作:主库、从库都可以接收写操作:首先到主库执行,然后,主库将写......
  • 搭建shopify本地开发环境
    虽然shopify提供了在线编辑器的功能,但是远不及本地编辑器方便高效,这篇文章主要介绍如何在本地搭建shopify开发环境:1、安装nodejs18.2+2、安装git3、安装shopifycli,使用指令:npminstall-g@shopify/cli@latest4、安装ruby5、安装编辑器vscode6、导入项目到vscode测......
  • 书生浦语大模型全链条的开源体系介绍
    书生浦语大模型是一个全链条的开源体系,支持长达20万汉字的输入,是全球大模型产品中支持的最长上下文输入长度。模型具备超长上下文、推理数学代码、对话和创作体验、工具调用等能力。书生浦语大模型致力于大模型研究与开发工具链的开源组织。为所有AI开发者提供高效、易用的开源......
  • Vue3的项目搭建
    有两种方式可以搭建:一:使用vue-cli中的webpack创建 第二:推荐使用vite来创建项目vite是新一代前端构建工具,新的前端构建工具,比webpack要快一些。npmcreatevue@latest创建完项目后,我们可以看到项目最外层有index.htmlVite项目中,index.html是项目的入口文件,在项目最外层。......
  • 完全私有化部署!一款开源轻量级网站防火墙!
    大家好,我是Java陈序员。今天,给大家介绍一款开源轻量级网站防火墙!关注微信公众号:【Java陈序员】,获取开源项目分享、AI副业分享、超200本经典计算机电子书籍等。项目介绍SamWaf——是一款适用于小公司、工作室和个人网站的开源轻量级网站防火墙,完全私有化部署,数据加密且仅......
  • [Electron] 搭建 Vite+Electron 项目
    安装搭建Vite项目(根据官方文档搭建),安装electron、nodemon。pnpminstallelectronnodemon-D配置electron/main.jsfile:[electron/main.js]import{app,BrowserWindow}from"electron";constcreateWindow=()=>{constwin=newBrowserWindow({wid......
  • o1 式开源推理链项目 g1:可基于 Llama 3.2-90b 模型
    g1简介g1是一个开源项目,利用Llama3.170b模型在Groq硬件上实现类似OpenAIo1的推理链能力。项目通过精心设计的提示策略引导语言模型进行逐步推理,解决了传统语言模型在逻辑推理方面的不足。工作原理利用动态推理链,逐步引导Llama3.1模型完成复杂逻辑问题模型按......
  • 网站搭建
    第一步,服务器申请选择一:免费云服务器,免费虚拟主机如:阿贝云阿贝云提供了免费的云服务器和免费的云虚拟主机,可根据自己的实际应用情况选择。首先注册一个账户,然后需要支付0.3元做一个实名认证,如果实名认证成功了大概率会开通成功。如果失败了可能是服务器资源......
  • 手把手教你使用YOLOv11训练自己数据集(含环境搭建 、数据集查找、模型训练)
     一、前言本文内含YOLOv11网络结构图+ 训练教程+推理教程+数据集获取等有关YOLOv11的内容!官方代码地址:https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/11二、整体网络结构图 三、环境搭建 项目环境如下:      解释......
  • 清华大学、腾讯联合推全开源多模态架构Oryx 支持超长视频输入
    在人工智能快速发展的今天,一个名为ORYX的多模态大型语言模型正在悄然改变我们对AI理解视觉世界能力的认知。这个由清华大学、腾讯和南洋理工大学研究人员联合开发的AI系统,堪称视觉处理领域的"变形金刚"。ORYX,全称OryxMulti-ModalLargeLanguageModels,是一个专门设计用于......