pandas.read_pickle#
- pandas.read_pickle(filepath_or_buffer, compression='infer', storage_options=None)[源代码]#
从文件中加载 pickle 的 pandas 对象(或任何对象)。
警告
从不受信任的来源加载 pickled 数据可能不安全。请参阅 here 。
- Parameters:
- filepath_or_buffer字符串、路径对象或文件类对象
字符串、路径对象(实现
os.PathLike[str])或实现了二进制readlines()函数的文件类对象。也可以接受 URL。URL 不限于 S3 和 GCS。- compressionstr or dict, default ‘infer’
对磁盘上的数据进行即时解压缩。如果为 ‘infer’ 且 ‘filepath_or_buffer’ 是类路径,则根据以下扩展名检测压缩:’.gz’, ‘.bz2’, ‘.zip’, ‘.xz’, ‘.zst’, ‘.tar’, ‘.tar.gz’, ‘.tar.xz’ 或 ‘.tar.bz2’(否则不进行压缩)。如果使用 ‘zip’ 或 ‘tar’,ZIP 文件必须只包含一个要读取的数据文件。设置为
None表示不解压缩。也可以是一个字典,其中键'method'设置为 {'zip','gzip','bz2','zstd','xz','tar'} 中的一个,其他键值对将转发到zipfile.ZipFile,gzip.GzipFile,bz2.BZ2File,zstandard.ZstdDecompressor,lzma.LZMAFile或tarfile.TarFile。例如,可以传递以下内容以使用自定义压缩字典进行 Zstandard 解压缩:compression={'method': 'zstd', 'dict_data': my_compression_dict}。在 1.5.0 版本加入: 增加了对 .tar 文件的支持。
在 1.4.0 版本发生变更: Zstandard 支持。
- storage_optionsdict, 可选
适用于特定存储连接的额外选项,例如主机、端口、用户名、密码等。对于 HTTP(S) URL,键值对将作为标头选项转发给
urllib.request.Request。对于其他 URL(例如,以 “s3://”, 和 “gcs://” 开头的 URL),键值对将转发给fsspec.open。更多详情请参阅fsspec和urllib,有关存储选项的更多示例,请参阅 here 。
- Returns:
- 与文件中存储的对象类型相同
参见
DataFrame.to_pickle将 DataFrame 对象 pickled(序列化)到文件。
Series.to_pickle将 Series 对象 pickled(序列化)到文件。
read_hdf读取 HDF5 文件到 DataFrame。
read_sql将 SQL 查询或数据库表读取到 DataFrame。
read_parquet加载 parquet 对象,返回一个 DataFrame。
Notes
read_pickle 仅保证向后兼容到 pandas 0.20.3,前提是对象是用 to_pickle 序列化的。
Examples
>>> original_df = pd.DataFrame( ... {"foo": range(5), "bar": range(5, 10)} ... ) >>> original_df foo bar 0 0 5 1 1 6 2 2 7 3 3 8 4 4 9 >>> pd.to_pickle(original_df, "./dummy.pkl")
>>> unpickled_df = pd.read_pickle("./dummy.pkl") >>> unpickled_df foo bar 0 0 5 1 1 6 2 2 7 3 3 8 4 4 9