来源:选型助手
译者 | 朱先忠
审校 | 孙淑娟
本文将展示各种流行机器学习模型和嵌入技术对马其顿餐厅评论情感分析的有效性,探索并比较几种经典的机器学习模型以及包括神经网络和Transformers在内的现代深度学习技术。实验表明,采用最新OpenAI嵌入的微调Transformers模型和深度学习模型远远优于其他方法。
(资料图片仅供参考)
虽然用于自然语言处理的机器学习模型传统上侧重于如英语和西班牙语等流行语言;但是,在不太常用语言的发展方面其相关机器学习模型的研究与应用要少得多。另一方面,随着新冠肺炎疫情导致电子商务的兴起,马其顿语等不太常见的语言也通过在线评论产生了大量数据。这为开发和训练马其顿餐厅评论情感分析的机器学习模型提供了机会;成功的话,这可以帮助企业更好地了解客户情感并改善相关服务。在这项研究中,我们解决了这个问题带来的挑战,并探索和比较了马其顿餐厅评论中用于分析情绪的各种情感分析模型,从经典的随机森林到现代深度学习技术和Transformers等。
首先,我们给出本文内容的提纲:
挑战和数据预处理创建向量嵌入LASER嵌入多语言通用文本编码器OpenAI Ada v2机器学习模型随机森林XGBoost支持向量机深度学习Transformers结果和讨论未来的工作结论语言是一种独特的人类交流工具,如果没有适当的处理技术,计算机无法解释语言。为了让机器能够分析和理解语言,我们需要以可计算处理的方式表示复杂的语义和词汇信息。实现这一点的一种流行方法是使用向量表示。近年来,除了特定语言的表示模型之外,还出现了多语言模型。这些模型可以捕获大量语言上文本的语义上下文。
然而,对于使用西里尔(Cyrillic)文字的语言,由于互联网上的用户经常使用拉丁文字来表达自己,从而产生了由拉丁文字和西里尔文字组成的混合数据;这样一来,就产生了一个额外的挑战。为了应对这一挑战,我使用了一家当地餐馆的数据集,其中包含大约500条评论——其中包含拉丁语和西里尔语脚本。数据集还包括一小部分英语评论,这将有助于评估混合数据的表现。此外,在线文本可能包含需要删除的符号,如表情符号。因此,在执行任何文本嵌入之前,预处理是至关重要的步骤。
import pandas as pdimport numpy as np
#把数据集加载进一个dataframe
df = pd.read_csv("/content/data.tsv", sep="\t")
# 注意sentiment类别的分布情况
df["sentiment"].value_counts()
# -------
# 0 337
# 1 322
# Name: sentiment, dtype: int64
注意到,数据集包含了分布几乎相等的正负类。为了删除表情符号,我使用了Python库emoji,它可以轻松删除表情符号和其他符号。
!pip install emojiimport emoji
clt = []
for comm in df["comment"].to_numpy():
clt.append(emoji.replace_emoji(comm, replace=""))
df["comment"] = clt
df.head()
对于西里尔文和拉丁文的问题,我将所有文本转换为一种或另一种,这样机器学习模型就可以在两者上进行测试,以比较性能。我使用“cyrtranslit”库执行此任务。它支持大多数西里尔字母,如马其顿语、保加利亚语、乌克兰语等。
import cyrtranslitlatin = []
cyrillic = []
for comm in df["comment"].to_numpy():
latin.append(cyrtranslit.to_latin(comm, "mk"))
cyrillic.append(cyrtranslit.to_cyrillic(comm, "mk"))
df["comment_cyrillic"] = cyrillic
df["comment_latin"] = latin
df.head()
图1:转换输出的结果
对于我使用的嵌入模型,通常不需要删除标点符号、停止单词和进行其他文本清理。这些模型被设计用于处理自然语言文本,包括标点符号,并且当句子保持完整时,通常能够更准确地捕捉句子的意思。这样,文本的预处理就完成了。
目前,没有大规模的马其顿语言描述模型可用。然而,我们可以使用基于马其顿语文本训练的多语言模型。当前,有几种这样的模型可用,但对于这项任务,我发现LASER和多语言通用句子编码器是最合适的选择。
LASER(Language-Agnostic Sentence Representations)是一种生成高质量多语言句子嵌入的语言不可知方法。LASER模型基于两阶段过程。其中,第一阶段是对文本进行预处理,包括标记化、小写和应用句子。这部分是特定于语言的;第二阶段涉及使用多层双向LSTM将预处理的输入文本映射到固定长度的嵌入。
在一系列基准数据集上,LASER已经被证明优于其他流行的句子嵌入方法,如fastText和InferSent。此外,LASER模型是开源的,免费提供,使每个人都可以轻松访问。
使用LASER创建嵌入是一个简单的过程:
!pip install laserembeddings!python -m laserembeddings download-models
from laserembeddings import Laser
#创建嵌入
laser = Laser()
embeddings_c = laser.embed_sentences(df["comment_cyrillic"].to_numpy(),lang="mk")
embeddings_l = laser.embed_sentences(df["comment_latin"].to_numpy(),lang="mk")
# 保存嵌入
np.save("/content/laser_multi_c.npy", embeddings_c)
np.save("/content/laser_multi_l.npy", embeddings_l)
多语言通用句子编码器(MUSE)是由Facebook开发的用于生成句子嵌入的预训练模型。MUSE旨在将多种语言的句子编码到一个公共空间中。
该模型基于深度神经网络,该网络使用“编码器-解码器”架构来学习句子与其在高维空间中的对应嵌入向量之间的映射。MUSE是在一个大规模的多语言语料库上训练的,其中包括维基百科的文本、新闻文章和网页。
!pip install tensorflow_textimport tensorflow as tf
import tensorflow_hub as hub
import numpy as np
import tensorflow_text
#加载MUSE模型
module_url = "https://tfhub.dev/google/universal-sentence-encoder-multilingual-large/3"
embed = hub.load(module_url)
sentences = df["comment_cyrillic"].to_numpy()
muse_c = embed(sentences)
muse_c = np.array(muse_c)
sentences = df["comment_latin"].to_numpy()
muse_l = embed(sentences)
muse_l = np.array(muse_l)
np.save("/content/muse_c.npy", muse_c)
np.save("/content/muse_l.npy", muse_l)
2022年底,OpenAI宣布了他们全新的最先进嵌入模型text-embedding-ada-002(https://openai.com/blog/new-and-improved-embedding-model/)。由于此模型基于GPT-3构建,因此具有多语言处理能力。为了比较西里尔文和拉丁语评论的结果,我决定在两个数据集上运行了模型:
!pip install openaiimport openai
openai.api_key = "YOUR_KEY_HERE"
embeds_c = openai.Embedding.create(input = df["comment_cyrillic"].to_numpy().tolist(), model="text-embedding-ada-002")["data"]
embeds_l = openai.Embedding.create(input = df["comment_latin"].to_numpy().tolist(), model="text-embedding-ada-002")["data"]
full_arr_c = []
for e in embeds_c:
full_arr_c.append(e["embedding"])
full_arr_c = np.array(full_arr_c)
full_arr_l = []
for e in embeds_l:
full_arr_l.append(e["embedding"])
full_arr_l = np.array(full_arr_l)
np.save("/content/openai_ada_c.npy", full_arr_c)
np.save("/content/openai_ada_l.npy", full_arr_l)
本节将探讨用于预测马其顿餐厅评论中情绪的各种机器学习模型。从传统的机器学习模型到深度学习技术,我们将研究每个模型的优缺点,并比较它们在数据集上的性能。
在运行任何模型之前,应该先对数据进行分割,以便针对每种嵌入类型进行训练和测试。这可以通过sklearn库轻松完成。
from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(embeddings_c, df["sentiment"], test_size=0.2, random_state=42)
图2:随机森林分类的简化表示。构建100个决策树,并将结果作为每个决策树的结果之间的多数表决进行计算
随机森林是一种广泛使用的机器学习算法,它使用决策树集合对数据点进行分类。该算法通过在完整数据集的子集和特征的随机子集上训练每个决策树来工作。在推理过程中,每个决策树都会生成一个情绪预测,最终的结果是通过对所有树进行多数投票获得的。这种方法有助于防止过度拟合,并可导致更稳健和准确的预测结果。
from sklearn.ensemble import RandomForestClassifierfrom sklearn.metrics import classification_report, confusion_matrix
rfc = RandomForestClassifier(n_estimators=100)
rfc.fit(X_train, y_train)
print(classification_report(y_test,rfc.predict(X_test)))
print(confusion_matrix(y_test,rfc.predict(X_test)))
图3:基于boosting算法的顺序过程。每个下一个决策树都基于上一个决策的残差(误差)进行训练
XGBoost(极限梯度增强)是一种强大的集成方法,主要用于表格数据。与随机森林算法模型一样,XGBoost也使用决策树对数据点进行分类,但方法不同。XGBoost不是一次训练所有树,而是以顺序的方式训练每棵树,从上一棵树所犯的错误中学习。这个过程被称为“增强”,这意味着将弱模型结合起来,形成一个更强的模型。虽然XGBoost主要使用表格数据产生了很好的结果,但使用向量嵌入测试该模型也会很有趣。
from xgboost import XGBClassifierfrom sklearn.metrics import classification_report, confusion_matrix
rfc = XGBClassifier(max_depth=15)
rfc.fit(X_train, y_train)
print(classification_report(y_test,rfc.predict(X_test)))
print(confusion_matrix(y_test,rfc.predict(X_test)))
图4:支持向量分类的简化表示。在具有1024个输入特征的这种情绪分析的情况下,超平面将是1023维
支持向量机(SVM)是一种用于分类和回归任务的流行且强大的机器学习算法。它的工作原理是找到将数据分成不同类的最佳超平面,同时最大化类之间的边界。SVM对高维数据特别有用,可以使用核函数处理非线性边界。
from sklearn.svm import SVCfrom sklearn.metrics import classification_report, confusion_matrix
rfc = SVC()
rfc.fit(X_train, y_train)
print(classification_report(y_test,rfc.predict(X_test)))
print(confusion_matrix(y_test,rfc.predict(X_test)))
图5:此问题中使用的神经网络的简化表示
深度学习是一种先进的机器学习方法,它利用由多层和神经元组成的人工神经网络。深度学习网络在文本和图像数据方面表现出色。使用Keras库实现这些网络是一个很简单的过程。
import tensorflow as tffrom tensorflow import keras
from sklearn.model_selection import train_test_split
from sklearn.metrics import classification_report, confusion_matrix
model = keras.Sequential()
model.add(keras.layers.Dense(256, activatinotallow="relu", input_shape=(1024,)))
model.add(keras.layers.Dropout(0.2))
model.add(keras.layers.Dense(128, activatinotallow="relu"))
model.add(keras.layers.Dense(1, activatinotallow="sigmoid"))
model.compile(optimizer="adam", loss="binary_crossentropy", metrics=["accuracy"])
history = model.fit(X_train, y_train, epochs=11, validation_data=(X_test, y_test))
test_loss, test_acc = model.evaluate(X_test, y_test)
print("Test accuracy:", test_acc)
y_pred = model.predict(X_test)
print(classification_report(y_test,y_pred.round()))
print(confusion_matrix(y_test,y_pred.round()))
在此,使用了具有两个隐藏层和校正线性单元(ReLU)激活函数的神经网络。输出层包含一个具有S形激活函数的神经元,使网络能够对积极或消极情绪进行二元预测。二元交叉熵损失函数与S形激活配对以训练模型。此外,Dropout被用于帮助防止过度拟合和改进模型的泛化。我用各种不同的超参数进行了测试,发现这种配置最适合这个问题。
通过以下函数,我们可以可视化模型的训练。
import matplotlib.pyplot as pltdef plot_accuracy(history):
plt.plot(history.history["accuracy"])
plt.plot(history.history["val_accuracy"])
plt.title("Model Accuracy")
plt.xlabel("Epoch")
plt.ylabel("Accuracy")
plt.legend(["Train", "Validation"], loc="upper left")
plt.show()
图6:示例训练输出
图7:BERT大型语言模型的预训练和微调过程。(BERT原始论文地址:https://arxiv.org/pdf/1810.04805v2.pdf)
微调Transformers是自然语言处理中的一种流行技术,涉及调整预先训练的变换器模型以适应特定任务。Transformers,如BERT、GPT-2和RoBERTa,在大量文本数据上进行了预训练,能够学习语言中的复杂模式和关系。然而,为了在特定任务(如情绪分析或文本分类)上表现良好,需要根据任务特定数据对这些模型进行微调。
对于这些类型的模型,不需要我们之前创建的向量表示,因为它们直接处理标记(直接从文本中提取)。在马其顿语的情绪分析任务中,我使用了bert-base-multilingual-uncased,这是BERT模型的多语言版本。
HuggingFace使微调Transformers成为一项非常简单的任务。首先,需要将数据加载到Transformers数据集中。然后将文本标记化,最后训练模型。
from sklearn.model_selection import train_test_splitfrom datasets import load_dataset
from transformers import TrainingArguments, Trainer
from sklearn.metrics import classification_report, confusion_matrix
# 创建由数据集加载的训练和测试集的csv文件
df.rename(columns={"sentiment": "label"}, inplace=True)
train, test = train_test_split(df, test_size=0.2)
pd.DataFrame(train).to_csv("train.csv",index=False)
pd.DataFrame(test).to_csv("test.csv",index=False)
#加载数据集
dataset = load_dataset("csv", data_files={"train": "train.csv", "test": "test.csv"})
# 标记文本
tokenizer = AutoTokenizer.from_pretrained("bert-base-multilingual-uncased")
encoded_dataset = dataset.map(lambda t: tokenizer(t["comment_cyrillic"], truncatinotallow=True), batched=True,load_from_cache_file=False)
# 加载预训练的模型
model = AutoModelForSequenceClassification.from_pretrained("bert-base-multilingual-uncased",num_labels =2)
#微调模型
arg = TrainingArguments(
"mbert-sentiment-mk",
learning_rate=5e-5,
num_train_epochs=5,
per_device_eval_batch_size=8,
per_device_train_batch_size=8,
seed=42,
push_to_hub=True
)
trainer = Trainer(
model=model,
args=arg,
tokenizer=tokenizer,
train_dataset=encoded_dataset["train"],
eval_dataset=encoded_dataset["test"]
)
trainer.train()
# 取得预测结果
predictions = trainer.predict(encoded_dataset["test"])
preds = np.argmax(predictions.predictions, axis=-1)
# 评估
print(classification_report(predictions.label_ids,preds))
print(confusion_matrix(predictions.label_ids,preds))
因此,我们成功地调整了BERT进行情绪分析。
图8:所有模型的结果大对比
实验证明,马其顿餐厅评论的情绪分析结果是很有希望的,从上图中可见,其中有几个模型获得了很高的准确性和F1分数。实验表明,深度学习模型和变换器的性能优于传统的机器学习模型,如随机森林和支持向量机,尽管相差不大。使用新OpenAI嵌入的Transformers和深度神经网络成功打破了0.9精度的障碍。
OpenAI嵌入模型textembedding-ada-002成功地极大提高了从经典ML模型获得的结果,尤其是在支持向量机上。本研究中的最佳结果是在深度学习模型上嵌入西里尔文文本。
一般来说,拉丁语文本的表现比西里尔语文本差。尽管我最初假设这些模型的性能会更好,但考虑到拉丁语中类似单词在其他斯拉夫语言中的流行,以及嵌入模型是基于这些数据训练的事实,这些发现并不支持这一假设。
在未来的工作中,收集更多的数据以进一步训练和测试模型是非常有价值的,尤其是在审查主题和来源更为多样化的情况下。此外,尝试将元数据(例如审阅者的年龄、性别、位置)或时间信息(例如审阅时间)等更多特征纳入模型可能会提高其准确性。最后,将分析扩展到其他不太常用的语言,并将模型的性能与马其顿评论中训练的模型进行比较,这也将是很有意思的。
这篇文章展示了各种流行机器学习模型和嵌入技术对马其顿餐厅评论情感分析的有效性。探索并比较了几种经典的机器学习模型,如随机森林和SVM,以及包括神经网络和Transformers在内的现代深度学习技术。结果表明,采用最新OpenAI嵌入的微调Transformers模型和深度学习模型优于其他方法,验证准确率高达90%。
朱先忠,51CTO社区编辑,51CTO专家博客、讲师,潍坊一所高校计算机教师,自由编程界老兵一枚。
原文标题:From Decision Trees to Transformers: Comparing Sentiment Analysis Models for Macedonian Restaurant Reviews,作者:Danilo Najkov
关键词:
还在苦苦寻找优秀经典的名言吗?为大家整理的关于法律的名言警句
关于法律的名言警句(精选220句)在日常学习、工作或生活中,大家都有令自己印象深刻的名言吧,巧用名言有助于我们正确对待学习、生活、成长
怎样写方案才更能起到其作用呢?整理的项目合作实施方案
项目合作实施方案5篇为保证事情或工作高起点、高质量、高水平开展,往往需要预先进行方案制定工作,方案指的是为某一次行动所制定的计划类
楚辞影响最大的作品 《离骚》全文对照翻译
《离骚》全文对照翻译《离骚》是屈原的代表作,创作于楚怀王时期屈原遭谗被疏之时,是楚辞影响最大的作品。下面是《离骚》全文对照翻译...
写申请书时理由总是不够充分?为大家整理的退学申请书
退学申请书(精选12篇)在一步步向前发展的社会中,申请书在现实生活中使用广泛,申请书不同于其他书信,是一种专用书信。写申请书时理由总是
都有哪些类型的话语呢?为大家收集的感恩老师的话精选150句
感恩老师的话在生活、工作和学习中,越来越多人喜欢发表话语,话语是特定社会语境中人与人之间从事沟通的具体言语行为。那么都有哪些类...
关于我们 加入我们 联系我们 商务合作 粤ICP备18023326号-32
中国创氪网 www.chuanganwang.cn 版权所有
投稿投诉联系邮箱:85 572 98@qq.com