使用 Transformers 进行图分类
在之前的 博文 中,我们探讨了图机器学习的一些理论知识。这一篇我们将探索如何使用 Transformers 库进行图分类。(你也可以从 此处 下载演示 notebook,跟着一起做!)
您可以通过点击 阅读原文 查看文段中提到的链接。
目前,Transformers 中唯一可用的图 transformer 模型是微软的 Graphormer,因此本文的例子将会基于该模型。我们期待看到大家会使用并集成哪些其他模型进 🤗。
软件
要学习本教程,需要安装 datasets
和 transformers
(版本号 >= 4.27.2),你可以使用 pip install -U datasets transformers
来安装。
数据
你可以使用自己的图数据集,也可以使用 Hub 上已有的数据集。本文我们主要使用已有的数据集,你也可以随时 添加你的数据集 到 Hugging Face!
数据加载
从 Hub 加载图数据集非常简单。这里,我们加载 OGB 库中的 ogbg-mohiv
数据集 (该数据集是斯坦福 开放图基准 (Open Graph Benchmark,OGB) 的一部分):
from datasets import load_dataset
# There is only one split on the hub
dataset = load_dataset("OGB/ogbg-molhiv")
dataset = dataset.shuffle(seed=0)
这个数据集含三个拆分,train
、validation
和 test
,所有这些拆分每一行都表示一个图,每个图包含 5 个数据列 (edge_index
、edge_attr
、y
、num_nodes
、node_feat
),你可以通过执行 print(dataset)
来查看。
如果你还安装了其他图处理库,你还可以用这些库把图可视化出来,并进一步检查数据集。例如,使用 PyGeometric 和 matplotlib:
import networkx as nx
import matplotlib.pyplot as plt
# We want to plot the first train graph
graph = dataset["train"][0]
edges = graph["edge_index"]
num_edges = len(edges[0])
num_nodes = graph["num_nodes"]
# Conversion to networkx format
G = nx.Graph()
G.add_nodes_from(range(num_nodes))
G.add_edges_from([(edges[0][i], edges[1][i]) for i in range(num_edges)])
# Plot
nx.draw(G)
格式
在 Hub 上,图数据集主要存储为图列表形式 (使用 jsonl
格式)。
单个图表示为一个字典,以下是我们图分类数据集的理想格式:
-
edge_index
包含图上每条边对应的节点 ID,存储为包含两个节点列表
的列表 (即由一个源节点列表和一个目的节点列表组成的列表)。 -
类型: 2 个整数列表的列表。 -
示例: 包含四个节点 (0、1、2 和 3) 且连接为 1->2、1->3 和 3->1 的图将具有 edge_index = [[1, 1, 3]、[2、3、1]]
。你可能会注意到此处不存在节点 0,因为在本数据中它与其他节点无边连接。这就是下一个属性很重要的原因。 -
num_nodes
表示图中可用节点的数目 (默认情况下,假定节点按顺序编号)。 -
类型: 整数 -
示例: 在上例中, num_nodes = 4
。 -
y
每个图的预测标签 (可以是类、属性值或是不同任务的多个二分类标签)。 -
Type: 整数列表 (用于多分类) 、浮点数 (用于回归) 或 0/1 列表 (用于二元多任务分类) -
示例: 我们可以预测图规模 (小 = 0,中 = 1,大 = 2)。本例中, y = [0]
。 -
node_feat
包含图中每个节点的可用特征 (如果存在),按节点 ID 排序。 -
类型: 整数列表的列表 (可选) -
例子: 如上例中的节点可以有一些类型特征 (就像分子图中的节点是不同的原子,不同的原子有不同的类型一样)。打比方,本例中 node_feat = [[1], [0], [1], [1]]
。 -
edge_attr
包含图中每条边的可用属性 (如果存在),按edge_index
排序。 -
类型: 整数列表的列表 (可选) -
例子: 仍使用上例,边也可以有类型 (如分子中的键),如 edge_attr = [[0], [1], [1]]`。
预处理
图 transformer 框架通常需要根据数据集进行特定的预处理,以生成有助于目标学习任务 (在我们的案例中为分类) 的特征和属性。在这里,我们使用 Graphormer
的默认预处理,它生成进度/出度信息、节点间的最短路径以及模型感兴趣的其他属性。
from transformers.models.graphormer.collating_graphormer import preprocess_item, GraphormerDataCollator
dataset_processed = dataset.map(preprocess_item, batched=False)
我们也可以在 DataCollator
的参数中动态进行预处理 (通过将 on_the_fly_processing
设置为 True)。但并非所有数据集都像 ogbg-molhiv
那样小,对于大图,动态预处理成本太高,因此需要预先进行预处理,并存储预处理后的数据供后续训练实验使用。
模型
模型加载
这里,我们加载一个已有的预训练模型及其 checkpoint 并在我们的下游任务上对其进行微调,该任务是一个二分类任务 (因此 num_classes = 2
)。我们还可以在回归任务 (num_classes = 1
) 或多任务分类上微调我们的模型。
from transformers import GraphormerForGraphClassification
model = GraphormerForGraphClassification.from_pretrained(
"clefourrier/pcqm4mv2_graphormer_base",
num_classes=2, # num_classes for the downstream task
ignore_mismatched_sizes=True,
)
我们来看下细节。
在代码中调用 from_pretrained
方法来下载并缓存模型权重。由于类的数量 (用于预测) 取决于数据集,我们将新的 num_classes
和 ignore_mismatched_sizes
与 model_checkpoint
一起传给该函数。这会触发函数创建一个自定义的、特定于该下游任务的分类头,这个头与原模型中的解码器头很可能是不同的。
我们也可以创建一个新的随机初始化的模型来从头开始训练,此时,我们既可以复用给定检查点的超参配置,也可以自己手动选择超参配置。
训练或微调
为了简化模型训练,我们使用 Trainer
。我们需要定义训练相关的配置以及评估指标来实例化 Trainer
。我们主要使用 TrainingArguments
类,这是一个包含所有配置项的类,用于定制训练配置。我们要给它一个文件夹名称,用于保存模型的 checkpoint。
from transformers import TrainingArguments, Trainer
training_args = TrainingArguments(
"graph-classification",
logging_dir="graph-classification",
per_device_train_batch_size=64,
per_device_eval_batch_size=64,
auto_find_batch_size=True, # batch size can be changed automatically to prevent OOMs
gradient_accumulation_steps=10,
dataloader_num_workers=4, #1,
num_train_epochs=20,
evaluation_strategy="epoch",
logging_strategy="epoch",
push_to_hub=False,
)
对于图数据集,调整 batch size 和梯度累积步数来保证有效 batch size 够大同时又要避免内存不足,这件事尤为重要。
最后一个参数 push_to_hub
允许 Trainer
在训练期间定期将模型推送到 Hub,这个通常由保存步长来决定。
trainer = Trainer(
model=model,
args=training_args,
train_dataset=dataset_processed["train"],
eval_dataset=dataset_processed["validation"],
data_collator=GraphormerDataCollator(),
)
在用于图分类的 Trainer
中,对给定的图数据集使用正确的数据整理器 (data collator) 很重要,这个数据整理器会将图转换为用于训练的 batch 数据。
train_results = trainer.train()
trainer.push_to_hub()
训练完后,可以使用 push_to_hub
将模型与所有其他训练相关信息一起保存到 hub。
由于此模型比较大,因此在 CPU (Intel Core i7) 上训练/微调 20 个 epoch 大约需要一天时间。想要更快点的话,你可以使用强大的 GPU 和并行化方法,你只需在 Colab notebook 中或直接在你选择的其他集群上启动代码即可。
结束语
现在你已经知道如何使用 transformers
来训练图分类模型,我们希望你尝试在 Hub 上分享你最喜欢的图 transformer 模型的 checkpoints、模型以及数据集,以供社区的其他人使用!
英文原文: https://hf.co/blog/graphml-classification
作者: Clémentine Fourrier
译者: Matrix Yao (姚伟峰),英特尔深度学习工程师,工作方向为 transformer-family 模型在各模态数据上的应用及大规模模型的训练推理。
排版/审校: zhongdongy (阿东)
本文分享自微信公众号 - Hugging Face(gh_504339124f0f)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
FastAdmin 极速后台框架六周岁啦
FastAdmin 致力于服务开发者,努力为开发者节省更多的时间,让大家有时间读书、健身、开源、投资、帮朋友、陪家人。 FastAdmin 开源社区创立于 2017 年,今天 FastAdmin 六岁啦,开源六年来我们收获了非常多的惊喜,在 FastAdmin 开源过程中,我们结识了很多很有趣的开发者朋友,现已有 87 位开发者朋友为 FastAdmin 贡献了代码,有 128 位插件作者参与了 FastAdmin 插件市场的建设,有无数热心的朋友为 FastAdmin 出谋划策。 FastAdmin 是无数开发者朋友们努力的成果,FastAdmin 的成长离不开大家的支持,框架凝聚了无数开发者朋友们的智慧,朋友们自发的参与到开源社区中,参与到生态的建设中。 FastAdmin 会更加努力做好开源,为国内的开源社区贡献一份自己的力量,也欢迎大家参与开源社区,感谢支持 FastAdmin,感谢支持国内的开源社区。 FastAdmin 六周年活动页https://www.fastadmin.net/act/sixthanniversary.html FastAdmin 官网https://...
- 下一篇
kuingsmile word GPT Plus V0.1.0 发布,一款利用 ChatGPT 辅助工作的 Word 加载项
Word GPT Plus 是一款基于Vue3开发的Word加载项,它允许你基于文档中写的内容生成文本。你可以使用它来翻译、总结、润色或者从零开始写一篇文章。 开源地址和软件官网 Github Kuingsmile/word-GPT-Plus 更新内容 项目初始化,提供翻译、润色、总结等功能 使用openai官方 API 提供模型选择功能 特色功能 使用GPT-3.5 API生成文本并支持选择模型 内置用于翻译、总结、润色和学术写作的提示 支持多种语言 可以自定义提示并保存以供将来使用 允许用户设置temperature和max tokens 支持代理 使用截图 安装方法 克隆Kuingsmile/word-GPT-Plus并安装依赖,然后运行项目。 git clone https://github.com/Kuingsmile/word-GPT-Plus.git yarn yarn run serve 将插件旁加载到 Microsoft Word 中。旁加载允许你安装和测试尚未在 Microsoft Store 中提供的插件。 旁加载 Word GPT Plus可以参考官...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker安装Oracle12C,快速搭建Oracle学习环境
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- CentOS7安装Docker,走上虚拟化容器引擎之路
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- CentOS8安装Docker,最新的服务器搭配容器使用
- Hadoop3单机部署,实现最简伪集群
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS8编译安装MySQL8.0.19