ChatGPT时代原来大佬们最关心的是这些事情
前言
随着人工智能技术的发展,聊天机器人越来越智能,越来越能够与人类进行自然的对话。其中,基于GPT模型的ChatGPT是一个非常先进的聊天机器人,它可以根据用户的输入生成流畅、有趣、有逻辑的回复,甚至可以创作诗歌、故事、代码等内容。ChatGPT引起了很多人的关注和兴趣,也引发了很多人的讨论和探索。那么,在ChatGPT时代,大佬们最关心的是什么呢?他们都在和ChatGPT聊些什么呢?有没有什么有趣或有意义的话题呢?
为了回答这些问题,我们利用python的可视化工具,对澎湃新闻中人工智能的数据进行了词云分析,从中挖掘出了一些关键词和热门话题。接下来就看看我们是怎么做的吧!
一、获取热点新闻数据
要制作一个词云分析可视化,首先需要获取一些文本数据。我们可以利用网络爬虫技术,从网上抓取一些人工智能领域最新的时事热点新闻,作为我们的数据源。以下是一个简单的爬虫程序,使用了 python 的 requests 和 BeautifulSoup 库,从澎湃新闻网站上抓取了最近一周的人工智能相关的新闻标题和摘要,并保存到了一个 csv 文件中。
import http.client
import json
from bs4 import BeautifulSoup
import csv
def crawl_news():
conn = http.client.HTTPSConnection("api.thepaper.cn")
pageNum = 1 # 初始化页码为1
pageSize = 10 # 每页数据条数为10
maxLoops = 20 # 最大循环次数为3
loopCount = 0 # 当前循环次数为0
# 创建一个空列表,用于存储新闻数据
respData = []
while loopCount < maxLoops:
payload = json.dumps({
"word": "人工智能",
"orderType": 1,#按时间从新到旧
"pageNum": pageNum,
"pageSize": pageSize,
"searchType": 1#按时间排序
})
headers = {
'Pragma': 'no-cache',
'Cookie': 'acw_tc=ac11000116858486118484123e00ce3d0543219693c94e0300ab0466132c07; ariaDefaultTheme=undefined',
'User-Agent': 'Apifox/1.0.0 (https://apifox.com)',
'Content-Type': 'application/json'
}
conn.request("POST", "/search/web/news", payload, headers)
res = conn.getresponse()
resData = res.read()
data = json.loads(resData)
# 处理当前页数据
for item in data['data']['list']:
name = BeautifulSoup(item['name'], 'html.parser').get_text().strip()
summary = BeautifulSoup(item['summary'], 'html.parser').get_text().strip()
respData.append([name, summary])
# 更新循环计数器
loopCount += 1
# 更新页码
pageNum += 1
conn.close()
# 返回列表
return respData
all_data = crawl_news()
# 打开一个 csv 文件,用于保存数据
with open('ai_news.csv', 'w', encoding='utf-8', newline='') as f:
# 创建一个 csv 写入对象
writer = csv.writer(f)
# 写入表头
writer.writerow(['title', 'summary'])
# 写入数据
writer.writerows(all_data)
# 关闭文件
f.close()
运行上述代码后,我们就得到了一个名为 ai_news.csv 的文件,里面包含了 140 条人工智能相关的新闻标题和摘要。这些数据就是我们接下来要进行词云分析可视化的原材料。
二、制作可视化词云
要制作一个词云分析可视化,我们需要对文本数据进行一些预处理,比如去除停用词、分词、统计词频等。然后我们可以利用 python 的 wordcloud 和 matplotlib 库,根据词频生成一个词云图,并进行可视化展示。以下是一个简单的词云分析可视化程序,使用了 python 的 jieba, wordcloud 和 matplotlib 库,从 ai_news.csv 文件中读取新闻数据,并生成了一个词云图。
# 导入库
import jieba
from wordcloud import WordCloud
import matplotlib.pyplot as plt
import csv
# 定义停用词列表
stopwords = ['人工智能', '的', '是', '在', '和', '了', '有', '为', '与', '将', '也', '等', '对', '不', '让', '更', '可以']
# 打开 csv 文件,读取新闻数据
with open('ai_news.csv', 'r', encoding='utf-8') as f:
# 创建一个 csv 读取对象
reader = csv.reader(f)
# 跳过表头
next(reader)
# 创建一个空字符串,用于存储所有新闻文本
text = ''
# 遍历每条新闻,提取标题和摘要,并拼接到字符串中
for row in reader:
title = row[0]
summary = row[1]
text += title + summary
# 关闭文件
f.close()
# 对文本进行分词,并去除停用词
words = jieba.cut(text)
words = [word for word in words if word not in stopwords]
# 将分词后的结果转换为字符串,用空格隔开每个词
words = ' '.join(words)
# 创建一个词云对象,并设置参数
wc = WordCloud(font_path='simhei.ttf',
width=800,
height=600,
background_color='white',
max_words=100)
# 根据文本生成词云图
wc.generate(words)
# 使用 matplotlib 库显示词云图
plt.figure()
plt.imshow(wc, interpolation='bilinear')
plt.axis('off')
plt.show()
运行上述代码后,我们就得到了一个类似下图的词云图。从中我们可以看出,在人工智能领域最新的时事热点中,比较突出的关键词有“技术”、“发展”、“创新”、“应用”、“产业”、“数据”、“学习”、“模型”等。这些关键词反映了人工智能领域的发展趋势和研究方向。
大语言模型能力提高,各种AI应用体验和质量会提高,工具也更简单实用。最重要的是学习运用各种AI工具,大幅释放生产力。 想上手使用new bing,了解更多AI技术、应用和ChatGPT进展,欢迎点击如下链接加入 GPT4体验
标签:csv,人工智能,词云,words,news,关心,import,ChatGPT,大佬 From: https://blog.51cto.com/u_13279124/6455566