Cython初体验
Cython初体验
写一些仿真的程序,用Python很快速地就可以把项目的框架搭建起来。我自己实践的基本流程是建分支写对应功能,用Jupyter调试新写的.py
模块,调试好了直接把Jupyter中的代码整理到tests
目录下作为单元测试,在每一次commit
前都保证单元测试是通过的,这样保证每一个节点的程序拿出来都是可以运行的。但是因为Python是动态语言,因此在计算密集的地方比Fortran/C/C++慢上100-300倍是很正常的。但是
Programmers waste enormous amounts of time thinking about, or worrying about, the speed of noncritical parts of their programs, and these attempts at efficiency actually have a strong negative impact when debugging and maintenance are considered. We should forget about small efficiencies, say about 97% of the time: premature optimization is the root of all evil. Yet we should not pass up our opportunities in that critical 3%.
整个程序真正耗时的核心是3%左右的部分,程序的大部分模块我们是不需要花费精力考虑优化的。所以一个兼顾开发效率和计算效率的工作方式就是,先用Python开发出大部分功能和框架,耗时的部分用C/C++重写再嵌入到Python的框架中。实现这个流程的关键就是程序的各个模块之间是弱耦合的。软件设计中的一个基本原则就是单一职责原则(Single Responsibility Principle, SRP),它指出
一个模块应该只有一个单一的功能。
在邹欣老师的《构建之法》中提到过《敏捷软件开发:原则、模式与实践》中举过的一个例子:
一个处理正方形的模块有两个功能:1. 计算面积,2. 画出这个正方形。
这个设计让一个模块负责两个不同的职责:进行几何计算(与显示图形无关)和在图形界面绘出正方形。如果是一个集合计算的程序需要使用这个模块,那么它要同时包括图形显示的部分(因为是在同一个模块中),这是一种浪费,也引入了不必要的依赖(因为图形显示和具体的图形底层的实现相关),妨碍了可移植性。另外,几何计算需求的改变和图形显示需求的改变都会导致这个模块发生变化,增加错误发生的风险。实际上科学计算也是差不多的,假如我们所有的仿真流程都塞到了一个或几个模块里,每个函数都需要调用多个对象,实现了多个功能,因为彼此之间相互依赖,这给用C/C++对某些核心部分重写带来了很大的困难。虽然不同设计的程序都可以实现对某个对象的仿真,但是不同的设计会让整个系统看起来有很大差别。就像庖丁解牛一样,虽然牛都是一样的,但是不同的刀法会让切出来的牛看起来很不一样.. 发生的事情都是一样的,关键是用哪一套图像解构再重构发生的事情,来帮助我们理顺事情发生的逻辑并做出一些预测。理解不是记忆,而是解构和建构,所以一些时候学习了很多东西但是始终没有什么想法,主要是缺乏了在实践中用自己的知识重构自己所面对的现象的过程,离开实践的认识是不可能的。
一般情况下,当我们执行Python代码时,首先Python解释器会进行词法分析,从源代码生成字节码(也就是__pycache_
目录中.pyc
的文件)。然后,Python虚拟机(解释器的一部分)读取并执行这些字节码。因为Python中一切皆对象,连简单的int
类型实际上也是PyIntObject
对象,这会导致代码运行的过程包含了远超过它看起来做的事情的环节,比如创建和销毁对象、类型检查等等.. 而对于静态语言来说,当我们把源代码编译成机器码之后,可以被操作系统和硬件直接执行,而不需要通过虚拟机的加入,避免了运行时解释的开销。所以提升Python程序性能的基本想法,就是把部分耗时的代码先提前进行编译,不再让他们和解释器打交道。目前有三个典型的方案可以部分实现这个需求:Numba、Pybind11和Cython。
Numba最简单,直接在函数上加一个装饰器numba.jit(python)
就可以了,Numba会将Python的字节码转换成LLVM(Low Level Virtual Machine)中间表示,然后再将其编译成机器码。一旦函数被编译了,后续的函数调用将直接运行机器代码,绕过Python虚拟机。但是Numba有些问题,虽然说是可以直接在函数上加装饰器而无需改变原有代码,但封装的程度太高了,基本没法定制,而且并不是所有的Python代码都可以被Numba优化,有时候需求复杂了不得不写出些和源程序差异很大的代码。另外,由于JIT是即时编译,当装饰的函数多了以后,每次import
一遍库都需要从头到尾编译一遍,这也引入了些不便。最后整个项目即不像Python也不像C。Numba比较适合简单的原型开发时做一些调试。
Pybind11主要是用来将C++代码封装为Python模块,虽然据说效果非常好,但是似乎一个更合适的场景是已经开发了一个完整的C++模块,然后想去提供一个Python的接口,在Python中调用这个C++模块。Cython介乎两者之间,可以将Python代码编译成C的代码,从而获得性能提升,也支持C/C++库的调用。Cython前两天发布了3.0版本,官方文档上这样介绍,
Cython 项目通过源代码编译器将 Python 代码转换为等效的 C 代码来解决这个问题。此代码在 CPython 运行时环境中执行,但是却以编译后的 C程序那般速度执行,并且能够直接调用 C语言库。同时,它保留了 Python 源代码的原始接口,这使得它可以直接使用Python语言代码。这些双重特性使 Cython 的这两个主要使用场景成为可能:使用快速二进制模块来扩展 CPython 解释器,以及将 Python 代码与外部 C 库连接。
与此同时 Cython 可以编译(大多数)常规 Python 代码,而且生成的 C 代码通常可以从 Python 和 C 类型的任意静态类型声明中获得主要(并且有时很惊人)的速度上的提升。这些允许 Cython 将 C 语义分配给代码的一部分,并将它们转换为非常高效率的 C 代码。因此,类型声明可用于两个目的:将代码段从动态 Python 语义转换为静态和快速 C 语义,还用于直接操作外部库中定义的类型。因此,Cython 将这两个世界合并为一种非常广泛适用的编程语言。
上周在自己的蒙特卡洛程序上试用了一下,感觉效果还挺好的,这个Blog是记录一下在自己的程序中使用Cython做优化的经历。
性能分析
进行性能分析是代码优化前的必要步骤,首先需要定位程序的热点,可能整个程序运行100s,其中某一个函数占了90s,剩下的所有其他内容占据了10s,这时候大部分情况下我们只优化这个占据了90s的函数就足够了。Python官方提供的性能分析组合是cProfile
模块+pstats
模块,其中cProfile
负责统计函数或脚本执行中各部分消耗的时间和调用次数并生成统计信息文件,pstats
负责处理分析得到的统计信息。cProfile
的基本使用非常简单,只要第一个参数放上去要运行统计的函数,第二个参数指定保存的文件名就可以了。
1 | import cProfile |
之后,我们用pstats
模块分析这个.prof
结果,其中strip_dirs()
是指在结果中只保留模块名,忽略掉模块的绝对路径;sort_stats()
指定按照哪一个指标来排序,print_stats(10)
指定仅保留前10个结果。
1 | pstats.Stats('simulation.prof').strip_dirs().sort_stats('cumtime').print_stats(10) |
得到的结果是这样的
1 | Mon Sep 11 13:51:17 2023 origin.prof |
下面这几列分别是,
ncalls
,调函数调用次数tottime
,函数内部消耗时间,不包括这个函数调用其他函数的时间percall
,= tottime / ncalls
cumtime
,这个函数消耗的总时间percall
,= cumtime / ncalls
filename:lineno(function)
,函数所在的文件名:所在行数(函数名)
从上面的结果可以看到,这次仿真一共消耗了13.530s,在整个run
函数中,最耗时的部分就是调用track
函数跟踪粒子的过程,track
函数消耗了13.125s。在track
函数中,最耗时的函数就是calculate_intersection
函数,它主要负责调用calculate_intersection_between_line_segment_and_surface
函数来计算线段和某个面的交点,这个函数占据了8.919s,计算交点主要用来处理边界和粒子的散射过程。所以要用Cython提高仿真的效率,最关键的就是先把这个函数给优化了。这个函数的逻辑非常简单,检查给定的线段是否与这个面相交,如果相交,则返回线和面的交点。函数输入线段的两个端点、平面上的一个点、以及平面的法向向量。
1 | def calculate_intersection_between_line_segment_and_surface(line_point_A: NDArray, line_point_B: NDArray, surface_point: NDArray, surface_normal: NDArray) -> Optional[NDArray]: |
构建Cython代码
https://www.kancloud.cn/apachecn/cython-doc-zh/1944771
Cython代码写在.pyx
文件中,与Python代码不同,Cython代码必须编译。这包含两个阶段
.pyx
文件由Cython编译为.c
文件,它含有Python扩展文件的代码。.c
文件由C编译器编译成Python的动态链接库(Windows平台生成.pyd
文件,Linux平台生成.so
文件),可以直接被import
进入到一个Python程序中。Distuils
或setuptools
负责这一部分。
假如我们我们之前的Python代码放到了Sim
目录下,我们现在在Sim
目录下新建了一个Cython/surface.pyx
文件,里面放上了用Cython重写过的函数,现在想把它打包成一个库导入供其他模块调用,可以在项目总目录下新建一个setup.py
文件。setup.py
是Python中用于配置和构建包的脚本。它用来指定包的元数据(如名字、版本、作者等)、依赖关系、构建指令和其他设置。对于一个包,我们在终端中执行python setup.py install
就可以把这个包装到环境中了。在setup.py
中,setup
中的ext_modules
参数用于指定要构建和安装的C扩展模块,这些扩展模块通常是用C或C++编写的,并可以从Python代码中调用。在使用Cython时,我们可以用cythonize
函数来创建也给Extension
对象列表,这样Cython就可以处理.pyx
文件的编译,把它们转换成C
代码。之后, setup.py
脚本调用 Python 的 setuptools
或 distutils
模块来继续完成转换后的C
代码的编译和链接,最后变成ext_modules
成为可供Python调用的动态链接库。比如对于下面的setup.py
,我们指定了一个C
模块Sim.Cython.surface
,这个模块的源文件是Sim/Cython/surface.pyx
,需要numpy的头文件numpy.get_include()
。
1 | from setuptools import setup, Extension, find_packages |
我们执行python setup.py build_ext --inplace
命令,就可以完成这个Cython模块的构建,整个过程可以分为
- Cython将
.pyx
文件转换成.c
文件。 - C编译器将
.c
文件编译成对象文件。 - 链接器将对象文件链接成一个动态链接库。
其中--inplace
参数指定把生成的.pyd
文件拷贝到与.pyx
源文件相同的目录中,使得我们可以直接从源代码目录中导入这个新构建的模块,而不需要手动移动文件或者修改Python路径。
对于我们上面的Cython模块,我们运行setup.py
时,它会创建一个build
文件夹📂来存放构建过程中生成的各种文件和最终的输出文件。在我的电脑上,生成了lib.win-amd64-cpython-38
和temp.win-amd64-cpython-38
两个目录,其中lib
目录下储存了构建过程的最终输出,即Cython的扩展编译模块,也就是.pyd
文件(在Windows上)或.so
文件(在Unix-like系统上)。temp
目录包含了构建过程中生成的临时文件,比如.obj
对象文件,库文件.lib
文件,包含符号信息的.exp
文件等等,他们没什么用。构建完成了之后,我们就可以在项目的Python模块中导入这个模块了from .Cython.surface import calculate_intersection_between_line_segment_and_surface
。
Cython代码
Cython编译的代码,有些是纯C的,只能在Cython中调用,而有些是可以直接在Python中调用的,另一方面,可以要大致理解Cython优化代码的图像,先要简单理解一下CPython。CPython就是Python语言的最主流实现,也就是用C语言写的Python。在CPython里,每一个Python对象都是一个C的PyObject
结构体,其中ob_refcnt
是引用计数,Python的垃圾回收机制靠它来实现,当一个对象的引用计数为0时,这个对象就被回收。ob_type
是类型指针,指向对象的类型对象。
1 | typedef struct _object { |
所以在CPython解释器中本质上所有的Python对象实际上都是C语言层面的结构体。这意味着Python的数据类型和对象背后有对应的C数据结构来实现和存储数据。在Cython中,纯Python的代码也可以编译,就是把它们还原成复杂的结构体嘛。同时,我们也可以通过一些类型定义,跳过这些结构体,直接访问和操作C级别的底层数据,以实现更高效的代码,自然Cython也允许混合Python和C代码,但是显然我们应该尽可能地跳过这些结构体,直接在C层面运行代码,以避免Python层面的开销来提高代码的运行效率。在Cython中,我们使用cdef
来定义C层面的变量或函数,他们只能在Cython模块内部访问,而无法被外部模块访问。我们可以通过一个小例子来查看这种类型的巨大差别,定义一个cython_test.pyx
模块,
1 | # cython_test.pyx |
当我们用Cython编译并调用这个函数时,得到的结果将是
1 | Size of Python int object: 28 bytes |
一个Python的int对象是28字节,而一个C的int类型只有4个字节,这会带来巨大的性能差异,所以尽可能要在C的层面完成Cython的模块,只在输出输出层面提供一个Python类型的封装。在Cython中另一个常用的定义是cpdef
,cpdef
的想法就是能转换成C底层变量的,Cython就会转换,以提高性能。如果不能的,就回退到使用Python的C-API来处理这些对象。所以当我们采用cpdef
重新定义一个函数时,Cython会尽可能地把内部流程直接通过底层的C类型实现,同时也会在输入输出上自动实现一些Python对象和C类型之间的转换。
下面一个采用Cython进行初步优化的calculate_intersection_between_line_segment_and_surface
函数,其中:
# cython: language_level=3
:指定Python语言的版本为3cimport
用于在Cython中导入C语言的库或者其他Cython模块,cimport numpy
就是导入了numpy给Cython预留的C级别接口@cython.boundscheck(False)
禁用了数组边界检查。在Python中,当尝试访问一个数组或列表的一个超出其边界的索引时,Python会引发一个IndexError
异常。但是这种边界检查在运行时会增加额外的开销。@cython.wraparound(False)
禁用了Python的负索引包装。在Python中可以使用负索引来从数组的末尾开始计数,例如arr[-1]
将返回数组的最后一个元素,但这也会带来额外的开销。cnp.ndarray[cnp.float64_t, ndim=1]
指定了参数的类型,Cython可以根据提供的类型信息进行更多的优化,可以在C级别直接访问numpy数组的内存,而不需要通过Python对象层。cdef
在C层面声明了变量类型,允许Cython生成直接的C代码来处理这些变量。
1 | # cython: language_level=3 |
我们可以比较一下优化前后的运行效率,这里把Numba装饰的版本也一并放上比较。
- Python实现:42.2 µs ± 951 ns per loop (mean ± std. dev. of 7 runs, 10,000 loops each)
- Numba装饰:3.66 µs ± 49.7 ns per loop (mean ± std. dev. of 7 runs, 100,000 loops each)
- Cython编译:3.55 µs ± 23.7 ns per loop (mean ± std. dev. of 7 runs, 100,000 loops each)
有超过10倍的性能提升,重新运行我们的MC.run()
进行模拟,这回可以发现,仅仅优化了一个函数,仿真程序的计算效率提高了4倍,耗时的主要部分也变成了抽样声子属性的函数,可以接下来进行进一步的优化。
1 | Mon Sep 11 20:10:07 2023 new2.prof |