pandas.Series.to_pickle#

Series.to_pickle(path, *, compression='infer', protocol=5, storage_options=None)[源代码]#

将对象 Pickle(序列化)到文件。

Parameters:
path字符串、路径对象或文件类对象

字符串、路径对象(实现 os.PathLike[str])或实现二进制 write() 函数的文件类对象。要存储序列化对象的文件的路径。

compressionstr or dict, default ‘infer’

用于输出数据的实时压缩。如果为 ‘infer’ 且 ‘path’ 是类路径,则从以下扩展名检测压缩:’.gz’、’.bz2’、’.zip’、’.xz’、’.zst’、’.tar’、’.tar.gz’、’.tar.xz’ 或 ‘.tar.bz2’(否则不压缩)。设置为 None 表示不压缩。也可以是一个字典,其中键 'method' 设置为 {'zip', 'gzip', 'bz2', 'zstd', 'xz', 'tar'} 中的一个,并且其他键值对将被转发到 zipfile.ZipFile, gzip.GzipFile, bz2.BZ2File, zstandard.ZstdCompressor, lzma.LZMAFiletarfile.TarFile。例如,以下内容可以用于更快的压缩和创建可重现的 gzip 存档:compression={'method': 'gzip', 'compresslevel': 1, 'mtime': 1}

在 1.5.0 版本加入: 增加了对 .tar 文件的支持。

protocolint

一个 Int,指示 pickler 应使用哪个协议,默认为 HIGHEST_PROTOCOL(参见 [1] 段落 12.1.2)。可能的值为 0, 1, 2, 3, 4, 5。协议参数的负值相当于将其值设置为 HIGHEST_PROTOCOL。

storage_optionsdict, 可选

适用于特定存储连接的额外选项,例如主机、端口、用户名、密码等。对于 HTTP(S) URL,键值对将作为标头选项转发给 urllib.request.Request。对于其他 URL(例如,以 “s3://”, 和 “gcs://” 开头的 URL),键值对将转发给 fsspec.open。更多详情请参阅 fsspecurllib,有关存储选项的更多示例,请参阅 here

参见

read_pickle

从文件中加载 pickle 的 pandas 对象(或任何对象)。

DataFrame.to_hdf

将 DataFrame 写入 HDF5 文件。

DataFrame.to_sql

将 DataFrame 写入 SQL 数据库。

DataFrame.to_parquet

将 DataFrame 写入二进制 parquet 格式。

Examples

>>> original_df = pd.DataFrame({"foo": range(5), "bar": range(5, 10)})  
>>> original_df  
   foo  bar
0    0    5
1    1    6
2    2    7
3    3    8
4    4    9
>>> original_df.to_pickle("./dummy.pkl")  
>>> unpickled_df = pd.read_pickle("./dummy.pkl")  
>>> unpickled_df  
   foo  bar
0    0    5
1    1    6
2    2    7
3    3    8
4    4    9