当前位置: 首页 > news >正文

庄辉个人网站建设教学wordpress 不显示作者

庄辉个人网站建设教学,wordpress 不显示作者,会计培训班要多少钱一般要学多久,华强北 网站建设让我们通过几个实际的案例来说明如何使用Python编写网络爬虫。这些案例将涵盖从简单的静态网页爬取到较为复杂的动态网站交互#xff0c;并且还会涉及到数据清洗、存储和分析的过程。 案例 1: 简单的静态网页爬虫 假设我们需要从一个简单的静态新闻网站上抓取文章标题和链接…让我们通过几个实际的案例来说明如何使用Python编写网络爬虫。这些案例将涵盖从简单的静态网页爬取到较为复杂的动态网站交互并且还会涉及到数据清洗、存储和分析的过程。 案例 1: 简单的静态网页爬虫 假设我们需要从一个简单的静态新闻网站上抓取文章标题和链接。 Python 代码 我们将使用requests库来获取网页内容使用BeautifulSoup来解析HTML。 import requests from bs4 import BeautifulSoupdef fetch_articles(url):response requests.get(url)soup BeautifulSoup(response.text, html.parser)articles soup.find_all(div, class_article)for article in articles:title article.find(h2).textlink article.find(a)[href]print(fTitle: {title}\nLink: {link}\n)# 爬取示例网站 fetch_articles(https://example-news-site.com/articles)案例 2: 动态网站爬虫 对于动态加载的内容例如使用Ajax加载的网页我们可以使用Selenium库模拟浏览器行为。 Python 代码 我们将使用Selenium来与JavaScript驱动的网页进行交互。 from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as ECdef fetch_articles_selenium(url):driver webdriver.Chrome()driver.get(url)wait WebDriverWait(driver, 10)# 等待元素加载完成articles wait.until(EC.presence_of_all_elements_located((By.CLASS_NAME, article)))for article in articles:title article.find_element(By.TAG_NAME, h2).textlink article.find_element(By.TAG_NAME, a).get_attribute(href)print(fTitle: {title}\nLink: {link}\n)driver.quit()# 爬取动态加载内容的网站 fetch_articles_selenium(https://example-dynamic-news-site.com/articles)案例 3: 数据清洗和存储 一旦数据被爬取可能需要清洗和整理。我们可以使用Pandas库来处理数据。 Python 代码 我们将使用pandas来清洗数据并将其保存到CSV文件中。 import pandas as pddef clean_and_store(articles):df pd.DataFrame(articles, columns[title, link])df.drop_duplicates(inplaceTrue)df.to_csv(articles.csv, indexFalse)print(Data has been cleaned and stored.)# 示例数据 articles [{title: Example Title 1, link: http://example.com/1},{title: Example Title 2, link: http://example.com/2},{title: Example Title 1, link: http://example.com/1}, # Duplicate entry ]# 清洗并存储数据 clean_and_store(articles)案例 4: 数据分析和可视化 最后我们可以使用Matplotlib或Seaborn等库来进行数据分析和可视化。 Python 代码 我们将使用matplotlib来创建一个简单的图表显示不同类别的文章数量。 import matplotlib.pyplot as pltdef plot_article_categories(df):category_counts df[category].value_counts()category_counts.plot(kindbar)plt.title(Article Categories)plt.xlabel(Category)plt.ylabel(Number of Articles)plt.show()# 示例数据 data {title: [Example Title 1, Example Title 2, Example Title 3],link: [http://example.com/1, http://example.com/2, http://example.com/3],category: [Tech, Politics, Tech] } df pd.DataFrame(data)# 分析并可视化类别分布 plot_article_categories(df)这些案例涵盖了从基本的网页爬取到更复杂的数据处理过程。你可以根据自己的具体需求进一步扩展这些示例代码。如果你有特定的网站或数据需求请告诉我我可以提供更详细的指导。 接下来我们将继续探讨更高级的案例这些案例将涵盖动态网站爬取、数据处理、分布式爬虫以及使用机器学习进行内容分析等方面。 案例 5: 动态网站爬虫 (使用Selenium) 对于那些使用JavaScript动态加载内容的网站普通的HTTP请求可能无法获取完整的内容。在这种情况下可以使用Selenium库来模拟真实的浏览器行为。 Python 代码 我们将使用Selenium来爬取动态加载的网页内容。 from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC import timedef fetch_articles_selenium(url):options webdriver.FirefoxOptions()options.add_argument(--headless) # 无头模式运行driver webdriver.Firefox(optionsoptions)driver.get(url)# 等待页面加载完成wait WebDriverWait(driver, 10)articles wait.until(EC.presence_of_all_elements_located((By.CLASS_NAME, article)))# 获取所有文章的信息articles_info []for article in articles:title article.find_element(By.TAG_NAME, h2).textlink article.find_element(By.TAG_NAME, a).get_attribute(href)articles_info.append({title: title, link: link})driver.quit()return articles_info# 爬取动态加载内容的网站 url https://example-dynamic-news-site.com/articles articles fetch_articles_selenium(url) print(articles)案例 6: 数据清洗与处理 (使用Pandas) 一旦数据被爬取通常需要进行清洗和整理。这里我们使用Pandas库来处理数据。 Python 代码 我们将使用Pandas来清洗数据并将其保存到CSV文件中。 import pandas as pddef clean_and_store(articles):df pd.DataFrame(articles)df.drop_duplicates(inplaceTrue)df.to_csv(articles.csv, indexFalse)print(Data has been cleaned and stored.)# 示例数据 articles [{title: Example Title 1, link: http://example.com/1},{title: Example Title 2, link: http://example.com/2},{title: Example Title 1, link: http://example.com/1}, # Duplicate entry ]# 清洗并存储数据 clean_and_store(articles)案例 7: 分布式爬虫 (使用Scrapy) 当需要爬取大量数据时使用单个爬虫可能不够高效。Scrapy是一个非常强大的Python爬虫框架可以很容易地实现分布式爬虫。 Python 代码 我们将使用Scrapy框架来创建一个简单的分布式爬虫。 # items.py import scrapyclass ArticleItem(scrapy.Item):title scrapy.Field()link scrapy.Field()# spiders/example_spider.py import scrapyclass ExampleSpider(scrapy.Spider):name examplestart_urls [https://example.com/page1,https://example.com/page2,]def parse(self, response):for article in response.css(.article):title article.css(h2::text).get()link article.css(a::attr(href)).get()yield {title: title, link: link}# settings.py BOT_NAME example SPIDER_MODULES [example.spiders] NEWSPIDER_MODULE example.spiders案例 8: 内容分析 (使用spaCy) 对于抓取到的文本内容我们可以使用自然语言处理技术来进行分析。spaCy是一个非常流行的NLP库可以用来进行词性标注、命名实体识别等任务。 Python 代码 我们将使用spaCy来进行简单的文本分析。 import spacydef analyze_text(text):nlp spacy.load(en_core_web_sm)doc nlp(text)for token in doc:print(f{token.text}: {token.pos_} ({token.dep_}))# 示例文本 text This is an example sentence to demonstrate spaCys capabilities. analyze_text(text)案例 9: 数据可视化 (使用Matplotlib) 一旦我们有了数据就可以使用数据可视化工具来展示数据帮助理解数据的模式和趋势。 Python 代码 我们将使用Matplotlib来创建一个简单的条形图展示不同类别文章的数量。 import matplotlib.pyplot as pltdef plot_article_categories(df):category_counts df[category].value_counts()category_counts.plot(kindbar)plt.title(Article Categories)plt.xlabel(Category)plt.ylabel(Number of Articles)plt.show()# 示例数据 data {title: [Example Title 1, Example Title 2, Example Title 3],link: [http://example.com/1, http://example.com/2, http://example.com/3],category: [Tech, Politics, Tech] } df pd.DataFrame(data)# 分析并可视化类别分布 plot_article_categories(df)这些案例覆盖了从基本的网页爬取到更复杂的数据处理和分析。你可以根据自己的具体需求进一步扩展这些示例代码。如果你有任何特定的需求或者想要探讨更具体的场景请随时告诉我 当然可以接下来我们将继续探讨更高级的案例包括使用自然语言处理技术进行内容分析、利用大数据技术进行大规模数据处理以及使用机器学习进行预测分析等。 案例 10: 内容分析 (使用spaCy) 对于抓取到的文本内容我们可以使用自然语言处理技术来进行分析。spaCy是一个非常流行的NLP库可以用来进行词性标注、命名实体识别等任务。 Python 代码 我们将使用spaCy来进行简单的文本分析。 import spacydef analyze_text(text):nlp spacy.load(en_core_web_sm)doc nlp(text)for entity in doc.ents:print(fEntity: {entity.text}, Label: {entity.label_})# 示例文本 text Apple is looking at buying U.K. startup for $1 billion analyze_text(text)案例 11: 大规模数据处理 (使用Apache Spark) 当数据量非常大时使用Apache Spark这样的大数据处理框架可以更高效地处理数据。 Python 代码 我们将使用PySpark来处理大量的文章数据。 from pyspark.sql import SparkSession# 创建SparkSession spark SparkSession.builder.appName(WebCrawlerDataProcessing).getOrCreate()# 假设我们有一个包含文章数据的DataFrame data [(https://example.com/article1, This is the content of article 1.),(https://example.com/article2, This is the content of article 2.)] columns [url, content] df spark.createDataFrame(data, columns)# 进行数据处理比如计算每个文章的单词数 word_counts df.withColumn(word_count, df[content].str.split( ).count())# 输出结果 word_counts.show()# 关闭SparkSession spark.stop()案例 12: 机器学习预测 (使用scikit-learn) 一旦我们有了足够的数据就可以使用机器学习算法来进行预测分析。例如我们可以训练一个分类器来预测文章的主题类别。 Python 代码 我们将使用scikit-learn库来训练一个简单的文本分类器。 from sklearn.feature_extraction.text import CountVectorizer from sklearn.naive_bayes import MultinomialNB from sklearn.model_selection import train_test_split from sklearn.metrics import classification_report# 示例数据 texts [This is an example of a news article.,This is a blog post about technology.,Another news article on sports.,A review of a new tech product.] categories [news, blog, news, review]# 划分训练集和测试集 X_train, X_test, y_train, y_test train_test_split(texts, categories, test_size0.2, random_state42)# 特征提取 vectorizer CountVectorizer() X_train_transformed vectorizer.fit_transform(X_train) X_test_transformed vectorizer.transform(X_test)# 训练分类器 clf MultinomialNB() clf.fit(X_train_transformed, y_train)# 预测 predictions clf.predict(X_test_transformed)# 输出分类报告 print(classification_report(y_test, predictions))案例 13: 自动化部署 (使用Docker) 为了简化部署过程我们可以使用Docker来容器化我们的爬虫应用。 Dockerfile # 使用官方Python基础镜像 FROM python:3.10-slim# 设置工作目录 WORKDIR /app# 安装依赖 COPY requirements.txt . RUN pip install --no-cache-dir -r requirements.txt# 复制应用代码 COPY . .# 设置命令 CMD [python, crawler.py]案例 14: 数据可视化 (使用Plotly) 对于复杂的数据使用交互式的可视化工具如Plotly可以让用户更直观地理解数据。 Python 代码 我们将使用Plotly来创建一个交互式的条形图展示不同类别文章的数量。 import plotly.express as px# 示例数据 data {title: [Example Title 1, Example Title 2, Example Title 3],link: [http://example.com/1, http://example.com/2, http://example.com/3],category: [Tech, Politics, Tech] } df pd.DataFrame(data)# 分析并可视化类别分布 fig px.bar(df, xcategory, ytitle, colorcategory, barmodegroup) fig.show()结论 这些案例展示了如何使用Python和相关库进行网络爬虫开发并对其进行数据处理、分析和可视化。随着技术的不断发展未来的爬虫将更加智能和高效能够更好地应对日益复杂的数据环境。如果你有特定的需求或者想要探讨更具体的场景请随时告诉我 接下来我们将探讨两个更高级的案例这些案例将涵盖使用自然语言处理技术进行情感分析以及使用机器学习进行预测性维护等内容。 案例 15: 情感分析 (使用TextBlob) 对于抓取到的评论或社交媒体帖子我们可以使用情感分析技术来确定公众对某个话题的态度。TextBlob是一个流行的Python库它可以进行简单的文本处理包括情感分析。 Python 代码 我们将使用TextBlob来进行情感分析。 from textblob import TextBlobdef analyze_sentiment(text):blob TextBlob(text)sentiment blob.sentimentprint(fSentiment: polarity{sentiment.polarity}, subjectivity{sentiment.subjectivity})# 示例文本 text I really enjoyed the movie! It was fantastic. analyze_sentiment(text)案例 16: 预测性维护 (使用scikit-learn) 在工业或物联网(IoT)领域预测性维护是一个重要的应用领域。通过监控设备的状态数据可以预测设备何时可能出现故障并提前采取行动。这里我们将使用scikit-learn库来构建一个简单的预测模型。 Python 代码 我们将使用scikit-learn库来训练一个简单的分类器用于预测设备是否可能发生故障。 import pandas as pd from sklearn.model_selection import train_test_split from sklearn.ensemble import RandomForestClassifier from sklearn.metrics import accuracy_score# 示例数据 data {temperature: [35, 36, 37, 38, 39, 40, 41, 42],vibration: [1, 2, 3, 4, 5, 6, 7, 8],failure: [0, 0, 0, 0, 1, 1, 1, 1] } df pd.DataFrame(data)# 划分训练集和测试集 X df[[temperature, vibration]] y df[failure] X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.2, random_state42)# 训练分类器 clf RandomForestClassifier(n_estimators100, random_state42) clf.fit(X_train, y_train)# 预测 predictions clf.predict(X_test)# 输出准确率 accuracy accuracy_score(y_test, predictions) print(fAccuracy: {accuracy})案例 17: 数据流处理 (使用Apache Kafka) 在实时数据处理场景中如实时日志分析、实时交易分析等数据流处理变得尤为重要。Apache Kafka是一个非常流行的分布式流处理平台可以用来处理实时数据流。 Python 代码 我们将使用Kafka-python库来消费Kafka中的消息。 from kafka import KafkaConsumer# 创建Kafka消费者 consumer KafkaConsumer(my-topic,bootstrap_servers[localhost:9092],auto_offset_resetearliest,enable_auto_commitTrue,group_idmy-group)# 消费消息 for message in consumer:print(fReceived message: {message.value.decode(utf-8)})案例 18: 实时数据分析 (使用Apache Flink) 对于需要实时处理和分析的数据流Apache Flink是一个强大的流处理引擎。Flink可以用来处理无限数据流非常适合实时分析场景。 Python 代码 我们将使用Apache Flink的Python API来创建一个简单的流处理任务。 from pyflink.datastream import StreamExecutionEnvironment from pyflink.table import StreamTableEnvironment, DataTypes from pyflink.table.descriptors import Schema, OldCsv, FileSystem# 创建流执行环境 env StreamExecutionEnvironment.get_execution_environment() table_env StreamTableEnvironment.create(env)# 读取数据 table_env.connect(FileSystem().path(/path/to/data)).with_format(OldCsv().field(id, DataTypes.STRING()).field(timestamp, DataTypes.TIMESTAMP(3)).field(value, DataTypes.FLOAT())).with_schema(Schema().field(id, DataTypes.STRING()).field(timestamp, DataTypes.TIMESTAMP(3)).field(value, DataTypes.FLOAT())).create_temporary_table(MySource)# 查询数据 table_result table_env.from_path(MySource) \.filter(value 10) \.select(id, timestamp, value)# 执行查询 table_result.execute().print()这些案例展示了如何使用Python和相关库进行更高级的数据处理、分析和实时处理。如果你有特定的需求或者想要探讨更具体的场景请随时告诉我
文章转载自:
http://www.morning.fksxs.cn.gov.cn.fksxs.cn
http://www.morning.xqndf.cn.gov.cn.xqndf.cn
http://www.morning.tqjwx.cn.gov.cn.tqjwx.cn
http://www.morning.zlmbc.cn.gov.cn.zlmbc.cn
http://www.morning.kehejia.com.gov.cn.kehejia.com
http://www.morning.qqhmg.cn.gov.cn.qqhmg.cn
http://www.morning.kzcfp.cn.gov.cn.kzcfp.cn
http://www.morning.tmfhx.cn.gov.cn.tmfhx.cn
http://www.morning.fllfz.cn.gov.cn.fllfz.cn
http://www.morning.dgpxp.cn.gov.cn.dgpxp.cn
http://www.morning.qhczg.cn.gov.cn.qhczg.cn
http://www.morning.kybyf.cn.gov.cn.kybyf.cn
http://www.morning.khlxd.cn.gov.cn.khlxd.cn
http://www.morning.pccqr.cn.gov.cn.pccqr.cn
http://www.morning.dpruuode.cn.gov.cn.dpruuode.cn
http://www.morning.fykrm.cn.gov.cn.fykrm.cn
http://www.morning.gyfhk.cn.gov.cn.gyfhk.cn
http://www.morning.sqqds.cn.gov.cn.sqqds.cn
http://www.morning.xpqsk.cn.gov.cn.xpqsk.cn
http://www.morning.rqqct.cn.gov.cn.rqqct.cn
http://www.morning.lveyue.com.gov.cn.lveyue.com
http://www.morning.gjcdr.cn.gov.cn.gjcdr.cn
http://www.morning.sskns.cn.gov.cn.sskns.cn
http://www.morning.yntsr.cn.gov.cn.yntsr.cn
http://www.morning.dwmtk.cn.gov.cn.dwmtk.cn
http://www.morning.ymwny.cn.gov.cn.ymwny.cn
http://www.morning.rcjwl.cn.gov.cn.rcjwl.cn
http://www.morning.xrrjb.cn.gov.cn.xrrjb.cn
http://www.morning.kgjyy.cn.gov.cn.kgjyy.cn
http://www.morning.rwmp.cn.gov.cn.rwmp.cn
http://www.morning.qsyyp.cn.gov.cn.qsyyp.cn
http://www.morning.ksqyj.cn.gov.cn.ksqyj.cn
http://www.morning.dlbpn.cn.gov.cn.dlbpn.cn
http://www.morning.tpnxj.cn.gov.cn.tpnxj.cn
http://www.morning.wbns.cn.gov.cn.wbns.cn
http://www.morning.jfjqs.cn.gov.cn.jfjqs.cn
http://www.morning.cbnlg.cn.gov.cn.cbnlg.cn
http://www.morning.ktsth.cn.gov.cn.ktsth.cn
http://www.morning.ptslx.cn.gov.cn.ptslx.cn
http://www.morning.wrbf.cn.gov.cn.wrbf.cn
http://www.morning.tfwr.cn.gov.cn.tfwr.cn
http://www.morning.ryxgk.cn.gov.cn.ryxgk.cn
http://www.morning.qhnmj.cn.gov.cn.qhnmj.cn
http://www.morning.jbnss.cn.gov.cn.jbnss.cn
http://www.morning.kxltf.cn.gov.cn.kxltf.cn
http://www.morning.fhjnh.cn.gov.cn.fhjnh.cn
http://www.morning.tlyms.cn.gov.cn.tlyms.cn
http://www.morning.wmgjq.cn.gov.cn.wmgjq.cn
http://www.morning.jzxqj.cn.gov.cn.jzxqj.cn
http://www.morning.tmfm.cn.gov.cn.tmfm.cn
http://www.morning.dbrdg.cn.gov.cn.dbrdg.cn
http://www.morning.srgsb.cn.gov.cn.srgsb.cn
http://www.morning.muniubangcaishui.cn.gov.cn.muniubangcaishui.cn
http://www.morning.hpmzs.cn.gov.cn.hpmzs.cn
http://www.morning.pljxz.cn.gov.cn.pljxz.cn
http://www.morning.enjoinfo.cn.gov.cn.enjoinfo.cn
http://www.morning.djpps.cn.gov.cn.djpps.cn
http://www.morning.fnssm.cn.gov.cn.fnssm.cn
http://www.morning.xqtqm.cn.gov.cn.xqtqm.cn
http://www.morning.rfpxq.cn.gov.cn.rfpxq.cn
http://www.morning.ztdlp.cn.gov.cn.ztdlp.cn
http://www.morning.pjrgb.cn.gov.cn.pjrgb.cn
http://www.morning.glxmf.cn.gov.cn.glxmf.cn
http://www.morning.rlxg.cn.gov.cn.rlxg.cn
http://www.morning.mfjfh.cn.gov.cn.mfjfh.cn
http://www.morning.azxey.cn.gov.cn.azxey.cn
http://www.morning.yqsr.cn.gov.cn.yqsr.cn
http://www.morning.pxdgy.cn.gov.cn.pxdgy.cn
http://www.morning.lszjq.cn.gov.cn.lszjq.cn
http://www.morning.rshs.cn.gov.cn.rshs.cn
http://www.morning.hkpyp.cn.gov.cn.hkpyp.cn
http://www.morning.ntlxg.cn.gov.cn.ntlxg.cn
http://www.morning.wpmqq.cn.gov.cn.wpmqq.cn
http://www.morning.mcjp.cn.gov.cn.mcjp.cn
http://www.morning.tjndb.cn.gov.cn.tjndb.cn
http://www.morning.rnqnp.cn.gov.cn.rnqnp.cn
http://www.morning.hous-e.com.gov.cn.hous-e.com
http://www.morning.rpms.cn.gov.cn.rpms.cn
http://www.morning.pshtf.cn.gov.cn.pshtf.cn
http://www.morning.rywn.cn.gov.cn.rywn.cn
http://www.tj-hxxt.cn/news/263138.html

相关文章:

  • 无锡 网站建设公司宁都网站建设
  • 专业的网页设计和网站制作公司管网建设公司
  • 凡科网做的网站能直接用吗商贸有限公司章程范本
  • 商务网站开发目的精品课程网站开发的创新点
  • 网站语言那种好公司部门名称及部门职能
  • 关键词网站排名查询淘宝网店代运营正规公司
  • 游戏公司网站模板下载广州市工程交易中心官网
  • 代刷网站推广好玩的网页传奇
  • 中小企业网站建设公司首选那个网站可免费做推广
  • 做网站用什么软件知乎龙华做网站公司
  • 规划一个电子商务网站网站如何添加百度统计
  • 网站访客qq获取系统 报价好文案网站
  • 杭州餐饮团购网站建设网页设计是用什么软件
  • 上海市建设安全协会网站绵阳住房和城乡建设厅网站
  • wordpress网站防护用自己头像做的圣诞视频网站
  • 吉林省白山市建设局官方网站电商详情页设计思路
  • 常州市住房建设局网站廊坊网站制作套餐
  • 广州网站建设信息科技有限公司网站登录页面怎么做的
  • 企业网站建设合同书.doc长沙诚信做网站
  • 嘉兴网站广优化公司wordpress主题手动安装
  • 帮网站做代理精通网站建设电子档
  • 做期货黄金哪个网站信息数据准外贸网站建设招聘
  • 石景山上海网站建设叶县红色家园网站建设
  • 河北涿州网站建设wordpress博客站模板下载
  • 点图片跳到网站怎么做网站 固定ip
  • 苏州网站建设开发公司优易网络公司员工发展
  • 化妆品网站内容规划wordpress 删除 下载
  • 网站主机查询苏州网站建设哪家做得好
  • php网站开发实验总结网站权重最高
  • 车网站建设策划商丘做网站哪个好