【技术积累】自然语言处理中的基础知识【二】 全球最新
语言模型是一种自然语言处理技术,用于评估一个句子或句子序列在语言中的概率。它基于统计语言学,尝试建立单词序列的概率分布模型,使该模型能够生成未见过的句子。语言模型是机器翻译、语音识别、自动摘要、对话系统等自然语言处理任务的关键组成部分。
语言模型的主要目标是找到每个单词的概率,给定前面的所有单词,即上下文。模型可以基于n个前面的单词来预测下一个单词的概率,这称为n-gram模型。n-gram模型将一段文本分成连续的单词序列,如2-gram模型使用前两个单词来预测下一个单词的概率。n-gram模型是最简单的语言模型之一。
(资料图)
语言模型可以使用神经网络、统计机器学习方法和深度学习等技术进行建模。在深度学习中,常用的语言模型是递归神经网络(RNN)和循环神经网络(LSTM)。这些模型能够更好地捕捉句子中的长期依赖关系,从而提高解决NLP任务的效果。
通过使用语言模型,我们可以生成新的句子、纠正语法错误、自动生成摘要、回答问题等。因此,语言模型是自然语言处理中非常重要的一部分。
案例假设我们有一个简单的2-gram语言模型,它的目标是预测出现在一个句子中的每个单词的概率。对于任何长度的句子,模型都会将其划分成单独的单词,并计算概率。
例如,我们可以将句子“我喜欢吃冰淇淋”划分为以下单词序列: "我","喜欢","吃","冰淇淋"。
现在,我们可以通过使用2-gram模型来计算每个单词出现的条件概率:给定前一个单词的情况下,当前单词出现的概率。例如,模型可能会预测“我”后面跟着“喜欢”的概率更高,而不是“冰淇淋”。
如果我们想要使用该模型生成一个新的句子,它将从开始的标记"START"开始,然后根据先前预测的单词概率,选择下一个单词。模型会一次一次地重复该过程,直到生成一个"END"标记,表示句子的结束。生成的句子可能是"我喜欢冰淇淋",也可能是"吃冰淇淋",因为模型给两个句子的概率都很高。
这是一个简单的示例,展示了语言模型的一些基本概念。在现实世界的NLP应用程序中,我们使用更复杂的技术来构建更准确的语言模型。但是,这个例子说明了语言模型如何评估句子的概率,并如何用于生成新的句子。
语言模型的作用是什么在自然语言处理中,语言模型(LM)扮演着很重要的角色。它是众多NLP任务的基础,其作用可以总结为以下几点:
预测下一个单词。语言模型可以预测给定序列中一个单词后面最可能出现的单词,从而生成可读的、连贯的自然语言句子。评估句子的合理性。语言模型计算句子的概率,并衡量一段文本的自然度和流畅性。这可以用来检查文本的语法结构是否正确、是否存在歧义,或者判断一个文本是否有意义。自动翻译。语言模型可以处理源语言和目标语言之间的关系,并预测出在目标语言中最可能出现的单词序列。自动问答。问答系统可以使用语言模型来预测最可能的答案。这种方法包括使用大量仅有短文本的问答核心,然后使用句子的概率分布将答案与可能的答案进行排序。自动生成摘要。语言模型可以高效地从长文本中提取摘要或需要的信息。这可以采用变体,例如实体摘要或其他类型的文本摘要。总之,语言模型是自然语言处理中不可缺少的一环,因为它可以用来生成自然语言文本、评估文本的合理程度、自动翻译、问答等。除了用于这些核心任务之外,语言模型还有许多用途,如情感分析、语言识别和处理、语音识别、排版等。
语言模型的种类有哪些在自然语言处理(NLP)中,有许多不同类型的语言模型,常用的包括:
N元语法模型(N-gram model):N元语法模型是一种基于统计的语言模型,它假设一个词的出现只与前面的N个词有关系。如2-gram模型,它预测当前单词的概率只与前一个单词有关系。循环神经网络语言模型(RNNLM):RNNLM能够处理上下文的长期依赖关系,以及输入单词顺序的不同。它定义了一个单层或多层的递归神经网络模型,将先前的词汇转换为状态,以便在指定一个词汇时,能够使用它的状态和其他上下文信息来预测下一个单词的概率。循环神经网络的LSTM模型(LSTM-LM):LSTM-LM是一种特殊的RNN语言模型,利用了LSTM网络的架构,以处理NLP中长序列的依赖性问题。卷积神经网络的语言模型(CNN-LM):CNN-LM是一种卷积神经网络语言模型,不同于传统的基于循环神经网络的语言模型,它使用卷积和最大池化操作来生成输入的表示,以将N-gram视为函数,并通过卷积神经网络泛化到连续的N-gram。递归自注意力语言模型(Recurrent Self-Attention Language model): RSA-LM通过多个自注意力层来捕捉单词之间的长期依赖关系。RSA-LM 模型首先利用自注意力机制获取所有单词的上下文编码,然后再使用LSTM来处理每个单词的状态。总之,这些语言模型被广泛应用于自然语言处理中,可以处理诸如文本分类、生成、摘要和翻译等任务。针对具体问题需要选择不同的模型。
什么是分词概念分词(Word Segmentation)是自然语言处理(NLP)中的一个关键任务,指的是将一个句子或一段文本按照一定规则切分成一个个的词语。中文分词是特别的,因为汉字是不带空格的,中文分词任务主要是解决如何把一句话切分为合理的词语,使计算机能够更好地理解和处理文本。
分词对于中文处理来说是非常重要的,因为中文中没有空格,而且中文词汇组合丰富,不仅有单独存在的词汇,还有成语、习语、词组等,这些都是需要分词算法来处理的。通过分词,能够提取出句子的关键信息,如主语、谓语、宾语等,从而进一步进行文本处理。
目前,中文分词算法主要有基于规则的、基于统计的和混合型三种。基于规则的分词算法是基于专家知识和语言规则开发的,它们利用语言学知识对文本进行切分,但对新的数据表现较差;基于统计的分词算法则是利用大量语料库的统计学方法对文本进行分析,并从中推测出最有可能的词语切分方法,但在没有足够的数据时会出现误差;而混合型分词算法是将两种算法结合起来,保证分词的效果和效率。
案例例如,对于句子“我爱自然语言处理”,进行分词就是要将其切分为“我”、“爱”、“自然语言处理”这三个词。对于英文比较简单,因为单词已经经过空格分割,直接按空格分割即可,但对于中文来说,需要通过算法来判断每个汉字之间的边界,将整个文本切分为合理的词语。
比如基于规则的分词算法,它可以使用人工制定的词典以及一些语言规则,来进行分词。例如,对于上述句子,使用一个包含“自然语言处理”这个词组的词典,就可以很容易地将这个句子进行分词。
而基于统计的分词算法则是利用大量的中文语料库,使用一些统计方法来判断每个汉字的概率,进而对文本进行分词。例如,可以使用隐马尔可夫模型(HMM)等算法,将一段文本按照最有可能的词语组合方式进行切分。
混合型分词算法则是将两种算法结合起来,例如使用规则算法进行基础分割,然后通过基于统计的方法对切分后的结果进行进一步纠错,从而得到更优的分词结果。
总之,分词是中文自然语言处理中的一个基础任务,能够有效提取文本信息,使计算机进一步理解和处理中文文本。
分词的作用有哪些分词是自然语言处理中的一个重要任务,它将一段文本切分为词汇级别的单元,是处理中文文本的基础工作之一。下面是分词的主要作用:
提高处理效率: 分词可以将一段长文本拆分成独立的词汇,利用拆分后的词汇进行处理会更加高效。例如,在搜索引擎中搜索某个词汇时,只需要检索包含这个词汇的文本,而不需要对全文进行搜索,这大大提高了搜索效率。便于进行信息检索:分词后的文本可以实现对文本内容的信息检索,帮助用户快速地查找目标文本。例如在搜索引擎、社交媒体评论的情感分析中,需要对文本进行拆分和分析。提高文本预处理的效果: 在进行文本预处理的过程中,通过分词可以更加准确地计算特征,例如在分类、聚类、情感分析、关键词提取等任务中,通过分词可以提取出一个句子中的关键词,更准确地反映文档的主题。提高机器翻译和语音识别的准确率: 汉语的语法比较复杂,词汇之间经常会相互影响,对机器翻译和语音识别的准确率提出了要求。因此,分词可以将汉语转换为更容易解读的形式,提高机器翻译和语音识别的准确率。总之,分词是中文自然语言处理的基础任务,分词的准确性对于后续的文本处理结果有很大的影响。通过分词,可以提高文本处理效率、信息检索准确率、机器翻译和语音识别的准确率以及文本分析的准确率。
分词的算法有哪些分词指的是将一段文本按照一定的标准分成若干个单独的词语。对于中文而言,由于中文没有像英文那样的明显分词标记,因此需要采用特定的算法来进行分词。常见的中文分词算法包括:
基于规则的分词算法基于统计的分词算法基于深度学习的分词算法总之,中文分词算法的选择需要根据实际场景和文本特征来选择。常见的算法在分词效果、准确性、速度和实用性方面存在差异。
基于规则的分词算法基于规则的分词算法是一种基于人工设定规则的分词方法,其核心思想是通过一系列规则进行分词。
一般来说,基于规则的分词算法分为两个主要步骤。第一步是构建分词规则,第二步是利用规则对文本进行分词处理。具体步骤如下所示:
1. 构建分词规则
分词规则一般由多个规则组成,每个规则都是一条正则表达式,用于匹配文本中的词语。规则可以根据不同的需求,设定不同的匹配规则。比如,可以设定规则匹配长度、匹配特定字符串、匹配特定位置等。
2. 利用规则对文本进行分词处理
在分词处理阶段,首先需要将文本按照一定的方式进行预处理。一般来说,需要将文本进行切割,得到对应的文字或数字等信息。之后,需要利用构建好的分词规则对文本进行匹配。当找到匹配规则的词语时,就可以将其划分为一个词语,进而完成分词处理。
以下是一个基于规则的分词算法的简单实现:
import reclass RuleBasedSegmentation: def __init__(self): self.rule_set = [] # 添加规则 def add_rule(self, rule): self.rule_set.append(rule) # 分词 def segment(self, text): word_list = [] current_pos = 0 while current_pos < len(text): matched = False for rule in self.rule_set: m = re.match(rule, text[current_pos:]) if m: word_list.append(m.group(0)) current_pos += len(m.group(0)) matched = True break if not matched: word_list.append(text[current_pos]) current_pos += 1 return word_list# 示例用法rb_seg = RuleBasedSegmentation()rb_seg.add_rule(r"\d+") # 匹配数字rb_seg.add_rule(r"\w+") # 匹配英文单词rb_seg.add_rule(r"[^\s]") # 匹配其他字符(除空格外)text = "I have 10 cats and 2 dogs."print(rb_seg.segment(text))
运行结果为:`["I", "have", "10", "cats", "and", "2", "dogs", "."]`。
可以看到,该算法能够准确地将句子中的数字和单词都分段处理,并且保留了标点符号。
基于统计的分词算法基于统计的分词算法则是通过使用大量文本样本进行统计,得出每个单词出现的概率,进而进行字(或音)的切分。这种算法较常采用的方法是基于隐马尔可夫模型(HMM)或条件随机场(CRF)。
一般来说,基于统计的分词算法分为两个主要步骤。第一步是训练模型,第二步是使用模型进行分词处理。具体步骤如下所示:
1. 训练模型
训练模型通常需要大量的数据,以便寻找最优的分词算法,得出每个单词出现的概率。在训练模型时,需要对语料库进行处理,比如,去除停用词和标点符号,提取分词词典等。之后,可以利用提取出来的无标注语料库,使用 HMM 或 CRF 模型进行训练。
2. 使用模型进行分词处理
在分词处理阶段,根据预处理后的文本数据,使用 HMM 或 CRF 模型进行分词处理。其中,HMM 通常用于计算字的切分,而 CRF 可用于标准分词、未登录词分词和命名实体分词等技术领域。
以下是一个简单的基于 HMM 的分词算法的示例代码:
import mathclass HMM_Segmentation: def __init__(self): self.pi = None self.A = None self.B = None # 训练模型 def train(self, corpus): state_list = ["B", "M", "E", "S"] # 定义状态(分别表示:开始、中间、结尾、单个字符) # 初始化转移矩阵和发射矩阵 def init_parameters(): self.A = {s1: {s2: -math.log(1/len(state_list)) for s2 in state_list} for s1 in state_list} self.B = {s: {} for s in state_list} self.pi = {s: -math.log(1/len(state_list)) for s in state_list} # 计算转移概率 def calc_trans_prob(state_seq): state_count = {s: 0 for s in state_list} trans_count = {s: {s2: 0 for s2 in state_list} for s in state_list} # 统计状态和转移频数 for seq in state_seq: for i in range(len(seq)-1): s1 = seq[i] s2 = seq[i+1] state_count[s1] += 1 trans_count[s1][s2] += 1 # 计算概率 for s1 in state_count: for s2 in state_count: self.A[s1][s2] = -math.log((trans_count[s1][s2] + 0.1) / (state_count[s1] + 0.4)) # 计算状态转移和发射概率 def calc_emit_trans_prob(word_list, state_seq): state_count = {s: 0 for s in state_list} emit_count = {s: {} for s in state_list} # 统计状态和发射频数 for i in range(len(word_list)): word = word_list[i] states = state_seq[i] for j in range(len(word)): s = states[j] state_count[s] += 1 if word[j] not in emit_count[s]: emit_count[s][word[j]] = 0 emit_count[s][word[j]] += 1 # 计算概率 for s in state_count: for c in emit_count[s]: self.B[s][c] = -math.log((emit_count[s][c] + 0.1) / (state_count[s] + 0.4)) init_parameters() state_seq = [] word_list = [] # 遍历语料库,构造状态序列和词序列 for sentence in corpus: words = sentence.strip().split() assert len(words) > 0 characters = [] states = "" # 将每个词拆分成单个字符,并标注状态 for word in words: if len(word) == 1: states += "S" characters.append(word) else: states += "B" + "M" * (len(word) - 2) + "E" characters.extend([word[i] for i in range(len(word))]) assert len(states) == len(characters) state_seq.append(states) word_list.append(characters) calc_trans_prob(state_seq) calc_emit_trans_prob(word_list, state_seq) # 分词 def segment(self, text): if not self.A or not self.B or not self.pi: return [] chars = list(text.strip()) prob = [[0 for j in range(len(chars))] for i in range(len(self.B))] path = [[-1 for j in range(len(chars))] for i in range(len(self.B))] state2id = {"B": 0, "M": 1, "E": 2, "S": 3} id2state = {v: k for k, v in state2id.items()} # 初始化 for state in self.pi: prob[state2id[state]][0] = self.pi[state] + self.B[state].get(chars[0], 65535) # 前向算法 for i in range(1, len(chars)): for state in self.B: emit_prob = self.B[state].get(chars[i], 65535) max_prob = 999999999.9 max_state = "" for pre_state in self.A: trans_prob = self.A[pre_state][state] total_prob = prob[state2id[pre_state]][i-1] + trans_prob + emit_prob if total_prob < max_prob: max_prob = total_prob max_state = pre_state prob[state2id[state]][i] = max_prob path[state2id[state]][i] = state2id[max_state] # 后向算法 last_pos, last_state = min([(len(chars)-1, i) for i in range(len(self.B))], key=lambda x: prob[x[1]][-1]) result = [] for i in range(len(chars)-1, -1, -1): result.append((chars[i], id2state[last_state])) last_state = path[last_state][i] result.reverse() start = 0 seg_list = [] # 将隐状态为"B"/"M"/"E"的字符拼起来 for i in range(len(result)): char, state = result[i] if state == "B": start = i elif state == "E": seg_list.append("".join([result[j][0] for j in range(start, i+1)])) elif state == "S": seg_list.append(char) return seg_list# 示例用法corpus = ["今天 天气 很 好 。", "上海 福建 老河口"]hmm_seg = HMM_Segmentation()hmm_seg.train(corpus)text = "今天天气很好。"print(hmm_seg.segment(text))
运行结果为:`["今天", "天气", "很", "好", "。"]`。可以看到,该算法能够准确地将文本进行分词处理。
基于深度学习的分词算法基于深度学习的分词算法可以使用神经网络模型来学习中文语料库中单词之间的关系和规律,从而自动进行分词操作。
算法步骤如下:
1. 数据预处理:将中文文本数据转换成适合神经网络输入的格式,可以使用one-hot编码将每个中文字符转换成一个固定长度的向量表示。
2. 构建神经网络模型:使用深度学习框架(如TensorFlow或PyTorch)构建一个适合中文分词任务的神经网络模型,通常采用循环神经网络(RNN)或卷积神经网络(CNN)等。
3. 训练模型:使用大量中文分词标注数据来训练神经网络模型,使其学习中文词语之间的关系和规律。
4. 测试模型: 使用另外的未见过的语料库进行分词验证和测试,评估模型的性能。
下面是一个基于深度学习的分词算法的代码示例:
import jiebaimport tensorflow as tfimport numpy as np# 数据预处理corpus = open("corpus.txt", "r", encoding="utf-8").read()chars = set(corpus)char2index = {char:index for index, char in enumerate(chars)}index2char = {index:char for index, char in enumerate(chars)}max_seq_len = 20vocab_size = len(chars)# 构建神经网络模型inputs = tf.keras.Input(shape=(max_seq_len, vocab_size))x = tf.keras.layers.LSTM(units=64, return_sequences=True)(inputs)x = tf.keras.layers.LSTM(units=64)(x)outputs = tf.keras.layers.Dense(units=2, activation="softmax")(x)model = tf.keras.Model(inputs=inputs, outputs=outputs)# 定义损失函数和优化器model.compile(loss="categorical_crossentropy", optimizer="adam")# 训练模型for i in range(epoch): X = np.zeros((batch_size, max_seq_len, vocab_size)) y = np.zeros((batch_size, max_seq_len, 2)) for j in range(batch_size): start = np.random.randint(len(corpus) - max_seq_len) end = start + max_seq_len + 1 seq = corpus[start:end] X[j] = tf.keras.utils.to_categorical([char2index[char] for char in seq[:-1]], num_classes=vocab_size) y[j] = tf.keras.utils.to_categorical([0 if char == " " else 1 for char in seq[1:]], num_classes=2) model.train_on_batch(X, y) # 测试模型sentence = "我来到北京清华大学"X = np.zeros((1, max_seq_len, vocab_size))for i, char in enumerate(sentence): X[0][i] = tf.keras.utils.to_categorical(char2index[char], num_classes=vocab_size)pred = model.predict(X)[0]seg = ""for i, char in enumerate(sentence): if pred[i][1] > pred[i][0]: seg += " " seg += charprint(seg)
运行结果:
我 来到 北京 清华大学
标签:
推荐文章
- 【技术积累】自然语言处理中的基础知识【二】 全球最新
- 6月20日灌阳县宏腾萤石价格暂稳
- 赛龙舟 包粽子 端午期间北京全市公园推出69项活动
- 全球聚焦:北约武力震慑普京,更大的战争一触即发?中国不能坐以待毙
- 天天热消息:50kn等于多少kg_kn等于多少kg
- 恒帅股份06月19日获深股通增持9.43万股 全球快看
- 移动手机号怎么注销好_移动手机号怎么注销
- 五五摊销法会计分录例题(五五摊销法会计分录)_世界焦点
- 快手电商:618大促期间订单量同比增长近四成-速读
- 个性电脑桌面布局苹果 个性电脑桌面布局
- zp2000a怎么测好坏_zp200 当前速讯
- 2023年端午假期 武铁将加开96对客车运送高峰客流
- 世界观点:突然发胖要警惕什么病 四种急症最容易出现_突然发胖要警惕什么病
- 台湾学者称,两岸交流应多聚焦民生发展_当前独家
- 【独家焦点】多地强化政策引导、创新支撑和要素保障——推动制造业高质量发展
- 环球今热点:河北省尚义县发布冰雹橙色预警
- 今日播报!江苏省金山桥开发区属于哪个区_金山桥开发区属于哪个区简介介绍
- 「奔流文化·LIVE」“敦煌文化环球连线—走进新西兰”线上交流活动举行
- 人形机器人:AI终极形态,核心环节龙头梳理
- 天天信息:全国和美乡村篮球大赛(村BA)揭幕式
- 文旅部要求加强旅游厕所建设管理:结合自身实际建设 每日关注
- 注意!这9组大学专业易混淆
- 焦点热文:薄脆饼怎么做才能酥脆好吃_薄脆
- 香港交易所启动“港币-人民币双柜台模式”
- 环球讯息:下一个史蒂芬·库里,他来了
- 全球微头条丨雅虎!哦邮箱
- “新疆首届数智时代语文教育”高端学术论坛开幕式在新疆大学举行|天天即时
- 浙江嘉兴食品安全监管显成效
- 世界热议:生态持续向好 北京打造生物多样性之都
- 即时看!机械科技齐助力 各地秋粮作物播种和田间管理有序进行
- 聚力文化拟计提3.96亿元损失被深交所质疑|世界看点
- 差异化优势+全渠道布局 七鲜618订单量同比增长44%
- 世界热议:三峡船闸通航20年累计货运量达19.1亿吨
- 程雪涛调研望湖街道基层党建工作 世界快资讯
- 快递业,从拼“速度”到比“绿色”-世界快看点
- 1-3!国乒男双全军覆没,决赛大逆转失败,韩国选手再夺一冠|环球播资讯
- 水浒传阅读感悟50字_水浒传阅读感悟
- 水泡怎么处理好得快涂什么药_水泡怎么处理
- 元宵节游戏活动有哪些_6个元宵节活动 焦点速看
- 全球观察:希特勒敬礼手势喊什么(军人敬礼的手势有什么意义)
- 台湾“山地歌王”万沙浪去世,他曾泪洒春晚舞台 世界速看
- 鹦鹉亦有情的意思(鹦鹉亦有情文言文翻译)-环球热资讯
- 端午佳节的佳句怎么写_2021冬至佳句简短
- 全球快消息!militia和poultry区别?
- 【独家焦点】有你的日子不再平凡_对于有你的日子不再平凡简单介绍
- 杨姗云南(杨姗)-速递
- 暑期亲子游预订火爆 成都上榜暑期Top10热门亲子目的地前10
- 每日看点!米勒谈亚运解说术语:这网传版本有点假 一些杀呀不能说
- 2023年中国龙舟公开赛开锣!广东这两支队伍夺冠 当前焦点
- 维米尔作品解读_维米尔作品
- 全球微资讯!请给我讲讲宜兴的十大必吃美食推荐?
- 最新快讯!通道:古侗寨 新“钱景”
- 油渣炒白菜(适合全家人一起享用)-热门看点
- 第二十四届全国医院建设大会在天府新区开幕 今日最新
最新资讯
- 全球快看:新思想引领新征程·宁夏实践|“红本本”带来满满幸福感!宁夏6.69万户居民告别“办证难”
- 放假通知-环球观速讯
- 即时:咏史怀古诗都有哪些典故 什么是咏史怀古诗?
- 泳装美女_美女尸体 天天热讯
- 中学老师教育教学工作总结(中学教师受教工作总结) 当前独家
- 发现最美铁路|科技狂飙令人惊叹:看无人码头雨中自动化运转!
- 世界观热点:抽水软管怎么清洗
- 焦点信息:沈阳骄阳似火继续上演 下周二雨水来“退烧”
- 香港6合和彩开奖结果 香港彩开码结果
- 前沿资讯!苹果M2 Ultra芯片图形性能M1 Ultra两倍 导出速度也翻番
- 这个专栏文集的开头(废话篇)
- 美国国债规模突破32万亿美元
- 万里长城一片土是什么生肖_万里长城是什么生肖
- 跳桥救人小哥母亲发声:房和钱都不收,别再捐赠了_天天最资讯
- 温州人的住房,将迎来重大变局! 当前关注
- 【全球时快讯】韩国首尔市7月起对学校供餐进行全面辐射检测
- 2022国内城市潜力榜单,重庆略胜成都,厦门高于福州,武汉我在哪|百事通
- in a good condition_in good condition_天天热头条
- 朱元璋暴君的身份被落实,实际上他为民做很多好事,很少有人知道
- 微软 Xbox 游戏机推送 6 月系统更新|环球速看
- 天天消息!文洪投资时间2023年4月10日正式签约投资小黄人回收
- 快讯:莫道不消魂帘卷西风人比黄花瘦李清照醉花阴翻译_醉花阴原文内容及翻译
- 去动物园游玩,儿子捂肚子直喊疼,情急下母亲想到绿波救助-当前热议
- 视频丨本田混动再升级,第四代i-MMD加持!全新雅阁e:PHEV值得买吗?
- 世界播报:正式任命!35岁马龙新身份曝光,体育总局官宣,不负刘国梁期待
- 仿盛大传奇攻略_新开仿盛大传奇私服
- 白夜极光莲攻略
- 准备队家属协管员进行安全演讲 促进安全生产工作
- 微速讯:基金会与慈善设立上有什么不同?
- 当前速递!轿车没油趴窝快速路上
- 全球动态:早安 | 如果被别人误解,你会?
- 世界新消息丨汤加群岛发生6.2级地震
- 时隔十个月!央行连续“降息”,啥信号?
- 发现真善美|闲不住的老党员,义务维修让小物件重新发挥大作用_环球微速讯
- 1-5月,四川社会消费品零售总额同比增长7.8%
- 对话荣耀赵明:根据需求定制自研芯片战略,对大模型将“慎之又慎” 天天信息
- 正平股份(603843)7名股东合计质押1.81亿股,占总股本25.8648% 世界快看
- 心理追凶粤语_心里追凶粤语-焦点资讯
- 股票行情快报:华通线缆(605196)6月16日主力资金净卖出363.95万元|天天快看
- 国际硕士含金量为什么那么高?1分钟全面了解!
- 全球微动态丨熙菱信息:6月16日召开业绩说明会,投资者参与
- 海上直驱型风力发电机组技术规范 当前聚焦
- 两部门部署加强2023届高校毕业生档案转递
- 2023年度长春市“军休杯”门球友谊赛举行
- 华特气体:拟追加5亿元投建电子化学品生产基地项目 世界要闻
- 上海市银行同业公会:发挥LPR对贷款利率的引导作用 合理确定利率定价水平 环球观点
- 当前最新:淮西江北道提刑按察司(关于淮西江北道提刑按察司介绍)
- 方向字母怎么表示什么_方向字母
- 股价新高之际 美银继续唱多英伟达:不止AI 有两大“杀手锏”
- 每日看点!时光相册怎么共享照片 操作方法介绍