德语语言支持金宝app
本主题总结了支持德语文本的文本分析工具箱™功能。金宝app有关显示如何分析德语文本数据的示例,请参见分析德语文本数据.
标记
的tokenizedDocument
功能自动检测德语输入。或者,设置“语言”
选项tokenizedDocument
来“德”
.此选项指定令牌的语言细节。要查看令牌的语言详细信息,请使用tokenDetails
.这些语言细节决定的行为removeStopWords
,addPartOfSpeechDetails
,normalizeWords
,addSentenceDetails
,addEntityDetails
函数。
标记德语文本
使用标记化德语文本tokenizedDocument
.该功能自动检测德语文本。
STR = [“早安。是谁干的?”“Heute wird ein guter Tag。”];documents = tokenizedDocument(str)
documents = 2x1 tokenizedDocument: 8个token: Guten Morgen。是谁的?6个标记:Heute wild ein guter Tag。
句子检测
要检测文档中的句子结构,请使用addSentenceDetails
.您可以使用缩写
函数帮助创建要检测的缩写的自定义列表。
为德语文档添加句子细节
使用标记化德语文本tokenizedDocument
.
STR = [“古腾·摩根,施密特医生。Geht es Ihnen wieder besser?”“Heute wird ein guter Tag。”];documents = tokenizedDocument(str);
为文档添加句子细节addSentenceDetails
.该函数将语句号添加到返回的表中tokenDetails
.查看前几个令牌的更新令牌详细信息。
文档= addSentenceDetails(文档);tdetails = tokenDetails(文档);头(tdetails, 10)
令牌DocumentNumber SentenceNumber LineNumber类型语言 _________ ______________ ______________ __________ ___________ ________ " “摩根”好“1 1 1字母de 1 1 1字母德”,“1 1 1标点de”“1 1 1字母de”博士。”11 11 1个标点de "Schmidt" 11 11个字母de "。1 1 1标点de "Geht" 1 2 1个字母de "es" 1 2 1个字母de "Ihnen" 1 2 1个字母de
德语缩略语表
查看德语缩略语表。使用此表可帮助创建自定义缩略语表,以便在使用时进行句子检测addSentenceDetails
.
缩略语(“语言”,“德”);头(台)
缩写用法____________ _______ "A.T"正规的"ABl"正规的"Abb"正规的"Abdr"正规的"Abf"正规的"Abfl"正规的"Abh"正规的"Abk"正规的
演讲部分细节
若要向文档添加德语词性详细信息,请使用addPartOfSpeechDetails
函数。
获取德语文本的词性细节
使用标记化德语文本tokenizedDocument
.
STR = [“早安。是谁干的?”“Heute wird ein guter Tag。”];documents = tokenizedDocument(str)
documents = 2x1 tokenizedDocument: 8个token: Guten Morgen。是谁的?6个标记:Heute wild ein guter Tag。
要获得德语文本的词性细节,首先使用addPartOfSpeechDetails
.
文档= addPartOfSpeechDetails(文档);
要查看词性详细信息,请使用tokenDetails
函数。
tdetails = tokenDetails(文档);头(tdetails)
令牌DocumentNumber SentenceNumber LineNumber PartOfSpeech类型语言 ________ ______________ ______________ __________ ___________ ________ ____________ " 好“1 1 1字母de形容词“摩根”de名词1 1 1字母“”。1 1 1标点符号“Wie”1 2 1个字母副词“geht”1 2 1个字母动词“es”1 2 1个字母代词“dir”1 2 1个字母代词“?”1 2 1标点de标点
命名实体识别
若要向文档添加实体标记,请使用addEntityDetails
函数。
添加命名实体标签的德文文本
使用标记化德语文本tokenizedDocument
.
STR = [“恩斯特·佐格·冯·法兰克福·柏林。”"在沃尔夫斯堡的大众汽车。"];documents = tokenizedDocument(str);
要向德文文本添加实体标记,请使用addEntityDetails
函数。此函数检测人员姓名、位置、组织和其他命名实体。
文档= addEntityDetails(文档);
要查看实体详细信息,请使用tokenDetails
函数。
tdetails = tokenDetails(文档);头(tdetails)
标记DocumentNumber SentenceNumber LineNumber类型语言PartOfSpeech实体___________ ______________ ______________ __________ ___________ ________ ____________ __________“恩斯特”1 1 1个专有名词字母人“zog”1 1 1个动词非实体字母“von”1 1 1个附加非实体字母“法兰克福”1 1 1个附加非实体字母“nach”1 1 1个附加非实体字母“柏林”1 1 1个专有名词位置“。”1 1 1标点符号无实体“别拘束”2 1 1个字母动词无实体
查看带有实体标签的单词“人”
,“位置”
,“组织”
,或“其他”
.这些词是没有标记的词“走眼”
.
Idx = tdetails。实体~ =“走眼”;tdetails (idx:)
ans =5×8表标记DocumentNumber SentenceNumber LineNumber类型语言PartOfSpeech实体____________ ______________ ______________ __________ _______ ________ ____________ ____________“恩斯特”1 1 1个专有名词字母人“法兰克福”1 1 1个专有名词字母位置“柏林”1 1 1个专有名词字母位置“大众”2 1 1个专有名词字母组织“沃尔夫斯堡”2 1 1个专有名词字母位置
停止词
若要根据标记语言详细信息从文档中删除停止词,请使用removeStopWords
.对于德语停止词列表,请设置“语言”
选项stopWords
来“德”
.
从文档中删除德语停止词
使用标记化德语文本tokenizedDocument
.该功能自动检测德语文本。
STR = [“早安。是谁干的?”“Heute wird ein guter Tag。”];documents = tokenizedDocument(str)
documents = 2x1 tokenizedDocument: 8个token: Guten Morgen。是谁的?6个标记:Heute wild ein guter Tag。
删除停止词使用removeStopWords
函数。该函数使用文档中的语言细节来确定要删除哪些语言停止词。
documents = removeStopWords(文档)
documents = 2x1 tokenizedDocument: 5个token: Guten Morgen。可以吗?5个代币:Heute wter guter Tag。
阻止
要根据令牌语言的详细信息派生令牌,请使用normalizeWords
.
Stem德语文本
标记德语文本tokenizedDocument
函数。该功能自动检测德语文本。
STR = [“早安。是谁干的?”“Heute wird ein guter Tag。”];documents = tokenizedDocument(str);
阻止使用令牌normalizeWords
.
文档= normalizeWords(文档)
documents = 2x1 tokenizedDocument: 8 token: gut morg。是谁的?6令牌:heut wild ein gut标签。
语言的特性
单词和N-Gram计数
的bagOfWords
而且bagOfNgrams
功能的支持金宝apptokenizedDocument
不考虑语言的输入。如果你有tokenizedDocument
数组包含您的数据,然后您可以使用这些函数。
建模与预测
的fitlda
而且fitlsa
功能的支持金宝appbagOfWords
而且bagOfNgrams
不考虑语言的输入。如果你有bagOfWords
或bagOfNgrams
对象,然后可以使用这些函数。
的trainWordEmbedding
功能支持金宝apptokenizedDocument
或文件输入,而不考虑语言。如果你有tokenizedDocument
数组或包含正确格式的数据的文件,则可以使用此函数。
另请参阅
tokenizedDocument
|removeStopWords
|stopWords
|addPartOfSpeechDetails
|tokenDetails
|normalizeWords
|addLanguageDetails