您的位置:首页 > 技术中心 > 运维 >

nvidia docker2是什么

时间:2021-12-08 17:27

nvidia-docker2.0是一个简单的包,它主要通过修改docker的配置文件“/etc/docker/daemon.json”来让docker使用NVIDIA Container runtime。

本文操作环境:Windows10系统、Docker 20.10.11版、Dell G3电脑。

NVidia Docker介绍

NVIDIA于2016年开始设计NVIDIA-Docker已便于容器使用NVIDIA GPUs。 第一代nvidia-docker1.0实现了对docker client的封装,并在容器启动时,将必要的GPU device和libraries挂载到容器中。但是这种设计的方式高度的与docker运行时耦合,缺乏灵活性。存在的缺陷具体如下:

设计高度与docker耦合,不支持其它的容器运行时。如: LXC, CRI-O及未来可能会增加的容器运行时。

不能更好的利用docker生态的其它工具。如: docker compose。

不能将GPU作为调度系统的一种资源来进行灵活的调度。

完善容器运行时对GPU的支持。如: 自动的获取用户层面的NVIDIA Driver libraries, NVIDIA kernel modules, device ordering等。

基于上面描述的这些弊端,NVIDIA开始了对下一代容器运行时的设计: nvidia-docker2.0。

nvidia-docker 2.0 的实现机制

先简单介绍下nvidia-docker 2.0, containerd,nvidia-container-runtime,libnvidia-container以及runc直接的关系。

它们之间的关系可以通过下面这张图关联起来:

61d6bd81d7b8d21ffcecb2575a2a315.png

nvidia-docker 2.0

nvidia-docker2.0 是一个简单的包,它主要通过修改docker的配置文件/etc/docker/daemon.json来让docker使用NVIDIA Container runtime。

nvidia-container-runtime

nvidia-container-runtime 才是真正的核心部分,它在原有的docker容器运行时runc的基础上增加一个prestart hook,用于调用libnvidia-container库。

libnvidia-container

libnvidia-container 提供一个库和一个简单的CLI工具,使用这个库可以使NVIDIA GPU被Linux容器使用。

Containerd

Containerd主要负责的工作是:

  • 管理容器的生命周期(从容器的创建到销毁)

  • 拉取/推送容器镜像

  • 存储管理(管理镜像及容器数据的存储)

  • 调用runc 运行容器

  • 管理容器的网络接口及网络

c458d3088662b8589315448321c15fa.png

当containerd接收到请求之后,做好相关的准备工作,可以选择自己调用runc也可以通过创建containerd-shim再去调用runc,而runc基于OCI文件对容器进行创建。 上面就是普通容器创建的基本流程。

RunC

RunC 是一个轻量级的工具,它是用来运行容器的,只用来做这一件事,并且这一件事要做好。我们可以认为它就是个命令行小工具,可以不用通过 docker 引擎,直接运行容器。事实上,runC 是标准化的产物,它根据 OCI 标准来创建和运行容器。而 OCI(Open Container Initiative)组织,旨在围绕容器格式和运行时制定一个开放的工业化标准。

直接使用RunC的命令行即可以完成创建一个容器,并提供了简单的交互能力。

上面已经介绍个各个组件的作用以及它们之间的关系,接下来详细的描述下这张图:

11bd4591488488bd5a7e0ffacc7e83f.png

正常创建一个容器的流程是这样的:

docker --> dockerd --> containerd--> containerd-shim -->runc --> container-process

docker客户端将创建容器的请求发送给dockerd, 当dockerd收到请求任务之后将请求发送给containerd, containerd经过查看校验启动containerd-shim或者自己来启动容器进程。

创建一个使用GPU的容器

创建GPU容器的流程如下:

docker--> dockerd --> containerd --> containerd-shim--> nvidia-container-runtime --> nvidia-container-runtime-hook --> libnvidia-container --> runc -- > container-process

基本流程和不使用GPU的容器差不多,只是把docker默认的运行时替换成了NVIDIA自家的nvidia-container-runtime。

这样当nvidia-container-runtime创建容器时,先执行nvidia-container-runtime-hook这个hook去检查容器是否需要使用GPU(通过环境变NVIDIA_VISIBLE_DEVICES来判断)。如果需要则调用libnvidia-container来暴露GPU给容器使用。否则走默认的runc逻辑。

说到这里nvidia-docker2.0的大体机制基本就通了。但是涉及到的nvidia-container-runtime, libnvidia-container, containerd,runc这些项目, 这本篇文章里面就不一一介绍了。如果感兴趣可以自行去探索学习。这些项目的地址在文章中都已经做个相关的链接。

推荐学习:《Docker视频教程》

以上就是nvidia docker2是什么的详细内容,更多请关注gxlcms其它相关文章!

热门排行

今日推荐

热门手游