pandas.DataFrame.to_pickle#
- DataFrame.to_pickle(path, *, compression='infer', protocol=5, storage_options=None)[源代码]#
将对象 Pickle(序列化)到文件。
- Parameters:
- path字符串、路径对象或文件类对象
字符串、路径对象(实现
os.PathLike[str])或实现二进制write()函数的文件类对象。要存储序列化对象的文件的路径。- compressionstr or dict, default ‘infer’
用于输出数据的实时压缩。如果为 ‘infer’ 且 ‘path’ 是类路径,则从以下扩展名检测压缩:’.gz’、’.bz2’、’.zip’、’.xz’、’.zst’、’.tar’、’.tar.gz’、’.tar.xz’ 或 ‘.tar.bz2’(否则不压缩)。设置为
None表示不压缩。也可以是一个字典,其中键'method'设置为 {'zip','gzip','bz2','zstd','xz','tar'} 中的一个,并且其他键值对将被转发到zipfile.ZipFile,gzip.GzipFile,bz2.BZ2File,zstandard.ZstdCompressor,lzma.LZMAFile或tarfile.TarFile。例如,以下内容可以用于更快的压缩和创建可重现的 gzip 存档:compression={'method': 'gzip', 'compresslevel': 1, 'mtime': 1}。在 1.5.0 版本加入: 增加了对 .tar 文件的支持。
- protocolint
一个整数,表示 pickle 应该使用哪个协议,默认值为 HIGHEST_PROTOCOL(参见 [1] 第 12.1.2 段)。可能的值为 0、1、2、3、4、5。协议参数的负值等同于将其值设置为 HIGHEST_PROTOCOL。
- storage_optionsdict, 可选
适用于特定存储连接的额外选项,例如主机、端口、用户名、密码等。对于 HTTP(S) URL,键值对将作为标头选项转发给
urllib.request.Request。对于其他 URL(例如,以 “s3://”, 和 “gcs://” 开头的 URL),键值对将转发给fsspec.open。更多详情请参阅fsspec和urllib,有关存储选项的更多示例,请参阅 here 。
参见
read_pickle从文件中加载 pickle 的 pandas 对象(或任何对象)。
DataFrame.to_hdf将 DataFrame 写入 HDF5 文件。
DataFrame.to_sql将 DataFrame 写入 SQL 数据库。
DataFrame.to_parquet将 DataFrame 写入二进制 parquet 格式。
Examples
>>> original_df = pd.DataFrame({"foo": range(5), "bar": range(5, 10)}) >>> original_df foo bar 0 0 5 1 1 6 2 2 7 3 3 8 4 4 9 >>> original_df.to_pickle("./dummy.pkl")
>>> unpickled_df = pd.read_pickle("./dummy.pkl") >>> unpickled_df foo bar 0 0 5 1 1 6 2 2 7 3 3 8 4 4 9