pandas.read_hdf#

pandas.read_hdf(path_or_buf, key=None, mode='r', errors='strict', where=None, start=None, stop=None, columns=None, iterator=False, chunksize=None, **kwargs)[源代码]#

从存储中读取,如果已打开则关闭。

检索文件中存储的 pandas 对象,可选择基于 where 条件。

警告

Pandas 使用 PyTables 来读写 HDF5 文件,这在使用 “fixed” 格式时允许使用 pickle 序列化 object-dtype 数据。加载来自不受信任来源的 pickled 数据可能不安全。

更多信息请参见:https://docs.python.org/3/library/pickle.html

Parameters:
path_or_bufstr, path object, pandas.HDFStore

任何有效的字符串路径都可以接受。仅支持本地文件系统,不支持远程URL和类文件对象。

如果要传入路径对象,pandas 接受任何 os.PathLike

或者,pandas 接受一个已打开的 pandas.HDFStore 对象。

keyobject, optional

存储中的组标识符。如果 HDF 文件包含单个 pandas 对象,则可以省略。

mode{‘r’, ‘r+’, ‘a’}, default ‘r’

打开文件时使用的模式。如果 path_or_buf 是 pandas.HDFStore ,则忽略。默认为 ‘r’。

errorsstr, 默认为 ‘strict’

指定如何处理编码和解码错误。有关选项的完整列表,请参阅 open() 的 errors 参数。

wherelist,optional

Term(或可转换)对象的列表。

startint, optional

开始选择的行号。

stopint, optional

停止选择的行号。

columnslist,optional

要返回的列名的列表。

iteratorbool, optional

返回一个迭代器对象。

chunksizeint, optional

使用迭代器时,一次迭代要包含的行数。

**kwargs

传递给 HDFStore 的其他关键字参数。

Returns:
object

选定的对象。返回类型取决于存储的对象。

参见

DataFrame.to_hdf

从 DataFrame 写入 HDF 文件。

HDFStore

对 HDF 文件的低级访问。

Notes

errors="surrogatepass", pd.options.future.infer_string 为 true 并且 PyArrow 已安装时,在解码为 UTF-8 时遇到 UTF-16 代理项,则生成的 dtype 将是 pd.StringDtype(storage="python", na_value=np.nan)

Examples

>>> df = pd.DataFrame([[1, 1.0, 'a']], columns=['x', 'y', 'z'])  
>>> df.to_hdf('./store.h5', 'data')  
>>> reread = pd.read_hdf('./store.h5')