FastAPI 部署在Docker的详细过程

docker 学习

https://www.cnblogs.com/poloyy/p/15257059.html

项目结构

.
├── app
│   ├── __init__.py
│   └── main.py
├── dockerfile
└── requirements.txt

fastapi 应用程序 main.py 代码

from typing import optional

from fastapi import fastapi

app = fastapi()

@app.get("/")
def read_root():
    return {"hello": "world"}

@app.get("/items/{item_id}")
def read_item(item_id: int, q: optional[str] = none):
    return {"item_id": item_id, "q": q}

dockerfile

# 1、从官方 python 基础镜像开始
from python:3.9

# 2、将当前工作目录设置为 /code
# 这是放置 requirements.txt 文件和应用程序目录的地方
workdir /code

# 3、先复制 requirements.txt 文件
# 由于这个文件不经常更改,docker 会检测它并在这一步使用缓存,也为下一步启用缓存
copy ./requirements.txt /code/requirements.txt

# 4、运行 pip 命令安装依赖项
run pip install --no-cache-dir --upgrade -r /code/requirements.txt

# 5、复制 fastapi 项目代码
copy ./app /code/app

# 6、运行服务
cmd ["uvicorn", "app.main:app", "--host", "0.0.0.0", "--port", "80"]

第四步:运行 pip 命令解析

run pip install –no-cache-dir –upgrade -r /code/requirements.txt

  • –no-cache-dir 选项告诉pip不要将下载的包保存在本地,因为只有当pip 将再次运行以安装相同的包时才会这样,但在使用容器时情况并非如此
  • –no-cache-dir只与pip有关,与 docker或容器无关
  • –upgrade选项告诉 pip升级已经安装的软件包
  • 因为上一步复制文件可能会被docker 缓存检测到,所以这一步也会在docker 缓存可用时使用
  • 在这一步中使用缓存会在开发过程中一次又一次地构建镜像时节省大量时间,而不是每次都下载并安装所有依赖项

docker 缓存 

这里有一个重要的技巧dockerfile,首先只复制依赖项的文件,而不是 fastapi 应用程序代码

 ./requirements.txt /code/requirements.txt
  • docker 和其他工具以增量方式构建这些容器映像,在另一层之上添加一层
  • 从 dockerfile 的顶部(首行)开始,由 dockerfile 的每个指令来创建任何文件
  • docker 和其他工具在构建镜像时也是用内部缓存
  • 如果文件自上次构建容器镜像后没有更改,则它将重用上次创建的同一层,而不是再次复制文件并从头开始创建一个新的层
  • 仅仅避免文件副本并不一定会改善太多,但是因为它在该步骤中使用了缓存,所以它可以在下一步中使用缓存
  • 例如,它可以将缓存用于安装依赖项的指令

run pip install –no-cache-dir –upgrade -r /code/requirements.txt

  • requirements.txt 不会经常改变,所以通过复制该文件,docker 可以在该步骤中使用缓存
  • docker 将能够使用缓存进行下一步下载和安装这些依赖项,这就是节省大量时间的地方
  • 下载并安装该软件包的依赖关系可能需要几分钟,但使用的缓存将只需要几秒
  • 由于在开发过程中一次又一次地构建容器镜像以检查代码更改是否有效,因此可以节省大量累积时间

./app /code/app

  • 在 dockerfile 尾部,复制 fastapi 应用程序代码
  • 由于这是最常更改的内容,因此将其放在最后,在此步骤之后的任何内容都将无法使用缓存

构建 docker image

在 dockerfile 打开命令行

docker build -t myimage .

查看镜像

docker images

启动 docker 容器

docker run -d –name mycontainer -p 80:80 myimage

查看容器

docker ps

访问 127.0.0.1/

访问 127.0.0.1/docs

带有 gunicorn 的官方 docker 镜像 – uvicorn

  • 此镜像包含一个自动调整机制,可根据可用的 cpu 内核设置工作进程的数量
  • 它具有合理的默认值,但仍然可以使用环境变量或配置文件更新所有配置
  • 此镜像上的进程数是根据可用的 cpu 内核自动计算的,它将尝试从 cpu 中榨取尽可能多的性能
  • 但这也意味着,由于进程数取决于容器运行的 cpu,消耗的内存量也将取决于此
  • 因此,如果应用程序消耗大量内存(例如使用机器学习模型),并且服务器有很多 cpu 内核但内存很少,容器最终可能会使用比可用内存更多的内存,这会大大降低性能(甚至崩溃)

官方栗子

from tiangolo/uvicorn-gunicorn-fastapi:python3.9
copy ./requirements.txt /app/requirements.txt
run pip install --no-cache-dir --upgrade -r /app/requirements.txt
copy ./app /app

应用场景

  1. 如果正在使用kubernetes,并且已经设置了集群级别的复制,就不应该使用此镜像,最好从头开始构建镜像
  2. 如果应用程序足够简单,以至于根据 cpu 设置默认进程数效果很好,不想费心在集群级别手动配置复制,并且运行的容器不会超过一个应用程序
  3. 或者如果使用docker compose进行部署,在单个服务器上运行等

使用 poetry 的 docker image

# 第一阶段:将仅用于安装 poetry 并从 poetry 的 pyproject.toml 文件生成带有项目依赖项的 requirements.txt。
from tiangolo/uvicorn-gunicorn:python3.9 as requirements-stage

# 将 /tmp 设置为当前工作目录;这是我们将生成文件requirements.txt的地方
workdir /tmp

# 安装 poetry
run pip install poetry

# 复制
copy ./pyproject.toml ./poetry.lock* /tmp/

# 生成 requirements.txt
run poetry export -f requirements.txt --output requirements.txt --without-hashes

# 这是最后阶段,在这往后的任何内容都将保留在最终容器映像中
from python:3.9

# 将当前工作目录设置为 /code
workdir /code

# 复制 requirements.txt;这个文件只存在于前一个 docker 阶段,这就是使用 --from-requirements-stage 复制它的原因
copy --from=requirements-stage /tmp/requirements.txt /code/requirements.txt

# 运行命令
run pip install --no-cache-dir --upgrade -r /code/requirements.txt

# 复制
copy ./app /code/app

# 运行服务
cmd ["uvicorn", "app.1_快速入门:app", "--host", "0.0.0.0", "--port", "80"]
  • 第一阶段 docker 是 dockerfile 的一部分,它作为一个临时容器的镜像是仅用于生成一些文件供后面阶段使用
  • 使用 poetry 时,使用docker 多阶段构建是有意义的
  • 因为实际上并不需要在最终容器镜像中安装 poetry 及其依赖项,只需要生成的requirements.txt 文件来安装项目依赖项

poetry 详细教程

到此这篇关于fastapi 部署在 docker的文章就介绍到这了,更多相关fastapi 部署在 docker 内容请搜索www.887551.com以前的文章或继续浏览下面的相关文章希望大家以后多多支持www.887551.com!

THE END
喜欢就支持一下吧
点赞12 分享