Upload
Download free for 30 days
Login
Submit search
PythonによるWebスクレイピング入門
182 likes
105,789 views
Hironori Sekine
PythonによるWebスクレイピング入門
Engineering
Read more
1 of 43
Download now
Downloaded 362 times
1
2
3
4
5
6
Most read
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
More Related Content
PDF
【Unity道場】ゲーム制作に使う数学を学習しよう
Unity Technologies Japan K.K.
PDF
Rによるやさしい統計学第20章「検定力分析によるサンプルサイズの決定」
Takashi J OZAKI
PDF
トップエンジニアが実践する思考整理法~テクニカルライティングを用いた課題解決の基本
Hajime Fujita
PDF
Rustに触れて私のPythonはどう変わったか
ShunsukeNakamura17
PPTX
傾向スコアを使ったキャンペーン効果検証V1
Kazuya Obanayama
PDF
強化学習その1
nishio
PPTX
データサイエンス概論第一=1-2 データのベクトル表現と集合
Seiichi Uchida
PDF
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン
Takahiro Kubo
【Unity道場】ゲーム制作に使う数学を学習しよう
Unity Technologies Japan K.K.
Rによるやさしい統計学第20章「検定力分析によるサンプルサイズの決定」
Takashi J OZAKI
トップエンジニアが実践する思考整理法~テクニカルライティングを用いた課題解決の基本
Hajime Fujita
Rustに触れて私のPythonはどう変わったか
ShunsukeNakamura17
傾向スコアを使ったキャンペーン効果検証V1
Kazuya Obanayama
強化学習その1
nishio
データサイエンス概論第一=1-2 データのベクトル表現と集合
Seiichi Uchida
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン
Takahiro Kubo
What's hot
(20)
PDF
Large Scale Jirou Classification - ディープラーニングによるラーメン二郎全店舗識別
knjcode
PDF
Prophet入門【Python編】Facebookの時系列予測ツール
hoxo_m
PDF
Redmineの情報を自分好みに見える化した話
ToshiharuSakai
PDF
深層強化学習でマルチエージェント学習(前篇)
Junichiro Katsuta
PDF
C++の黒魔術
Daichi OBINATA
PDF
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
PDF
Transformerを用いたAutoEncoderの設計と実験
myxymyxomatosis
PDF
SharePoint Online で、ポータル実践アイデア
Hirofumi Ota
PDF
POMDP下での強化学習の基礎と応用
Yasunori Ozaki
PPTX
MCMCでマルチレベルモデル
Hiroshi Shimizu
PDF
One Class SVMを用いた異常値検知
Yuto Mori
PDF
C++のSTLのコンテナ型を概観する @ Ohotech 特盛 #10(2014.8.30)
Hiro H.
PDF
Gofのデザインパターン stateパターン編
Ayumu Itou
PDF
Prophet入門【理論編】Facebookの時系列予測ツール
hoxo_m
PDF
第10章後半「ブースティングと加法的木」
T T
PDF
RでMplusがもっと便利にーmplusAutomationパッケージー #Hiroshimar05
Masaru Tokuoka
PDF
心理的安全性を 0から80ぐらいに上げた話
Yusuke Hisatsu
PDF
協調フィルタリング入門
hoxo_m
PDF
yans2022_hackathon.pdf
Kosuke Yamada
PDF
プログラミングコンテストでの動的計画法
Takuya Akiba
Large Scale Jirou Classification - ディープラーニングによるラーメン二郎全店舗識別
knjcode
Prophet入門【Python編】Facebookの時系列予測ツール
hoxo_m
Redmineの情報を自分好みに見える化した話
ToshiharuSakai
深層強化学習でマルチエージェント学習(前篇)
Junichiro Katsuta
C++の黒魔術
Daichi OBINATA
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
Transformerを用いたAutoEncoderの設計と実験
myxymyxomatosis
SharePoint Online で、ポータル実践アイデア
Hirofumi Ota
POMDP下での強化学習の基礎と応用
Yasunori Ozaki
MCMCでマルチレベルモデル
Hiroshi Shimizu
One Class SVMを用いた異常値検知
Yuto Mori
C++のSTLのコンテナ型を概観する @ Ohotech 特盛 #10(2014.8.30)
Hiro H.
Gofのデザインパターン stateパターン編
Ayumu Itou
Prophet入門【理論編】Facebookの時系列予測ツール
hoxo_m
第10章後半「ブースティングと加法的木」
T T
RでMplusがもっと便利にーmplusAutomationパッケージー #Hiroshimar05
Masaru Tokuoka
心理的安全性を 0から80ぐらいに上げた話
Yusuke Hisatsu
協調フィルタリング入門
hoxo_m
yans2022_hackathon.pdf
Kosuke Yamada
プログラミングコンテストでの動的計画法
Takuya Akiba
Ad
Viewers also liked
(20)
PDF
python-twitterを用いたTwitterデータ収集
Hikaru Takemura
PDF
「Python言語」はじめの一歩 / First step of Python
Takanori Suzuki
PDF
Python 機械学習プログラミング データ分析ライブラリー解説編
Etsuji Nakai
PDF
Pythonで簡単ネットワーク分析
antibayesian 俺がS式だ
PDF
10分でわかるPythonの開発環境
Hisao Soyama
PPTX
PythonとRによるデータ分析環境の構築と機械学習によるデータ認識
Katsuhiro Morishita
PDF
野球Hack!~Pythonを用いたデータ分析と可視化 #pyconjp
Shinichi Nakagawa
PDF
Python東海Vol.5 IPythonをマスターしよう
Hiroshi Funai
PDF
RとPythonによるデータ解析入門
Atsushi Hayakawa
PDF
Scikit learnで学ぶ機械学習入門
Takami Sato
PDF
scikit-learnを用いた機械学習チュートリアル
敦志 金谷
PDF
Gensim
saireya _
PDF
Python入門 : 4日間コース社内トレーニング
Yuichi Ito
PDF
DBエンジニアに必要だったPythonのスキル
Satoshi Yamada
PDF
JupyterNotebookとMySQLでゼロからはじめるデータサイエンス
infinite_loop
PDF
ソフトシンセを作りながら学ぶPythonプログラミング
Ransui Iso
PDF
Requestsで始める5分前帰社
Satoshi Yamada
PPTX
Pythonスタートアップ勉強会201109 python入門
Takayuki Shimizukawa
PDF
Pythonによるwebアプリケーション入門 - Django編-
Hironori Sekine
PPTX
Python による 「スクレイピング & 自然言語処理」入門
Tatsuya Tojima
python-twitterを用いたTwitterデータ収集
Hikaru Takemura
「Python言語」はじめの一歩 / First step of Python
Takanori Suzuki
Python 機械学習プログラミング データ分析ライブラリー解説編
Etsuji Nakai
Pythonで簡単ネットワーク分析
antibayesian 俺がS式だ
10分でわかるPythonの開発環境
Hisao Soyama
PythonとRによるデータ分析環境の構築と機械学習によるデータ認識
Katsuhiro Morishita
野球Hack!~Pythonを用いたデータ分析と可視化 #pyconjp
Shinichi Nakagawa
Python東海Vol.5 IPythonをマスターしよう
Hiroshi Funai
RとPythonによるデータ解析入門
Atsushi Hayakawa
Scikit learnで学ぶ機械学習入門
Takami Sato
scikit-learnを用いた機械学習チュートリアル
敦志 金谷
Gensim
saireya _
Python入門 : 4日間コース社内トレーニング
Yuichi Ito
DBエンジニアに必要だったPythonのスキル
Satoshi Yamada
JupyterNotebookとMySQLでゼロからはじめるデータサイエンス
infinite_loop
ソフトシンセを作りながら学ぶPythonプログラミング
Ransui Iso
Requestsで始める5分前帰社
Satoshi Yamada
Pythonスタートアップ勉強会201109 python入門
Takayuki Shimizukawa
Pythonによるwebアプリケーション入門 - Django編-
Hironori Sekine
Python による 「スクレイピング & 自然言語処理」入門
Tatsuya Tojima
Ad
Similar to PythonによるWebスクレイピング入門
(20)
PDF
クラウド運用のためのストリームマイニング
Shin Matsumoto
PDF
Data Scientist Workbench - dots0729
s. kaijima
PDF
概説 Data API v3
Yuji Takayama
PDF
地方企業がソーシャルゲーム開発を成功させるための10のポイント
Kentaro Matsui
PPTX
Tech fun rails_workshop
OMEGA (@equal_001)
PDF
実践!AWSクラウドデザインパターン
Hiroyasu Suzuki
PDF
Pythonおじさんのweb2py挑戦記
Yoshiyuki Nakamura
PDF
続Pythonによるwebスクレイピング入門
Hironori Sekine
PDF
ASP.NET Core 概要(2017年3月時点)
Atsushi Yokohama (BEACHSIDE)
PDF
「新しい」を生み出すためのWebアプリ開発とその周辺
Yusuke Wada
PDF
Isomorphic web development with scala and scala.js
TanUkkii
PDF
Building modernapplicationwithelasiccloud
Shotaro Suzuki
PDF
GraphQLはどんな時に使うか
Yutaka Tachibana
PPTX
Swagger jjug ccc 2018 spring
kounan13
PPTX
インドのインターネット環境との戦い方
Kenichi Tatsuhama
KEY
Rdbms起点で考えると見えない世界 okuyama勉強会
Masakazu Muraoka
PDF
Elastic on Azure Integration & Building React UI Based Search App Using Azure...
Shotaro Suzuki
PDF
Rubyで作るクローラー Ruby crawler
Takuro Sasaki
PDF
Rubyで作るtwitter風webアプリケーション
Naoto Hori
PDF
データ分析に必要なスキルをつけるためのツール~Jupyter notebook、r連携、機械学習からsparkまで~
The Japan DataScientist Society
クラウド運用のためのストリームマイニング
Shin Matsumoto
Data Scientist Workbench - dots0729
s. kaijima
概説 Data API v3
Yuji Takayama
地方企業がソーシャルゲーム開発を成功させるための10のポイント
Kentaro Matsui
Tech fun rails_workshop
OMEGA (@equal_001)
実践!AWSクラウドデザインパターン
Hiroyasu Suzuki
Pythonおじさんのweb2py挑戦記
Yoshiyuki Nakamura
続Pythonによるwebスクレイピング入門
Hironori Sekine
ASP.NET Core 概要(2017年3月時点)
Atsushi Yokohama (BEACHSIDE)
「新しい」を生み出すためのWebアプリ開発とその周辺
Yusuke Wada
Isomorphic web development with scala and scala.js
TanUkkii
Building modernapplicationwithelasiccloud
Shotaro Suzuki
GraphQLはどんな時に使うか
Yutaka Tachibana
Swagger jjug ccc 2018 spring
kounan13
インドのインターネット環境との戦い方
Kenichi Tatsuhama
Rdbms起点で考えると見えない世界 okuyama勉強会
Masakazu Muraoka
Elastic on Azure Integration & Building React UI Based Search App Using Azure...
Shotaro Suzuki
Rubyで作るクローラー Ruby crawler
Takuro Sasaki
Rubyで作るtwitter風webアプリケーション
Naoto Hori
データ分析に必要なスキルをつけるためのツール~Jupyter notebook、r連携、機械学習からsparkまで~
The Japan DataScientist Society
PythonによるWebスクレイピング入門
1.
Pythonによる Webスクレイピング入門 関根裕紀
2.
自己紹介 • 関根裕紀(せきね ひろのり) •
アライドアーキテクツ株式会社 • ソフトウェア・エンジニア • PyCon JP 2014 スタッフ • Twitter(@checkpoint )
3.
• 前職まで • RSSリーダー、SNS •
WebMail • 写真共有サービス • 現在(アライドアーキテクツ) • モニプラFacebook、Social-IN • Webアプリケーション開発全般を担当 経歴
4.
アジェンダ • Webスクレイピングとは • PythonでのWebスクレイピング •
ライブラリの紹介、サンプル(入門編)
5.
Webスクレイピングとは? Webスクレイピングとは、WebサイトからWebページのHTMLデータを収 集して、特定のデータを抽出、整形し直すことである。 ! Webスクレイピングを行うことで、Webページを対象として、あたかも Web APIを利用しているかのようにデータを効率的に取得・収集することが 可能になる。用途の例としては、部分的にコンテンツを取り出して携帯電話 向けのコンテンツを生成したり、小見出しの一覧を生成したり、といった使 い方あある。Webスクレイピングは様々な手段で実現可能であるが、PHPや Perlといったスクリプト言語を使用して行われることが多い。 ! IT用語辞典 ( http://www.sophia-it.com/content/Webスクレイピング
) より
6.
Webスクレイピング • WebサイトからHTMLのデータを収集 • 特定のデータを抽出、加工 •
抽出したデータを再利用 • クローリング + スクレイピング
7.
クローリング • 英語の意味は、[ はう、ゆっくり進む] •
Webページのリンクの内容をたどる • Webページの内容をダウンロードして収集 • クローラー、スパイダーと呼ばれる
8.
スクレイピング • 英語の意味は、[ 削ること
] • ページの内容から、必要な情報を抽出すること
9.
用途 • 検索エンジン • 価格比較 •
気象データの監視 • サイトの変更検出 • Webサイトの情報解析、研究(比較、分類、統計など) • マッシュアップ
10.
方法(1) • Webサービス、アプリケーション • Yahoo!
Pipes( https://pipes.yahoo.com/ ) • kimono ( https://www.kimonolabs.com/ ) • import.io ( https://import.io/ )
11.
方法(2) • Ruby • Nokogiri •
Mechanize • Perl • Web::Scraper • JavaScript • CasperJS
12.
Pythonでのスクレイピング • 標準ライブラリ • BeautifulSoup •
pyquery • Scrapy(スクレピー、スクラパイ、スクレパイ)
13.
Python • バッテリー付属言語
14.
標準ライブラリ • Pythonの標準ライブラリはとても充実している • ネットワーク、正規表現ライブラリ •
Pythonの処理系だけあれば良い • 簡単なスクレイピングであれば十分実用的
15.
サンプル import re, urllib2 res
= urllib2.urlopen( http://ll.jus.or.jp/2014/program") pattern_title = re.compile( <title>(.*?)</title>') m = pattern_title.search(res.read()) title = m.group(1) print title >>> プログラム ¦ LL Diver
16.
Beautiful Soup • 2004年からあるライブラリ •
HTMLやXMLからデータを抽出して取得できる • 複数のパーサーに対応、パーサーを指定できる • 最新バーションはBeautiful Soup 4系 • Python 2.7、Python 3.2に対応 • スクレイピング
17.
サンプル import urllib2 from bs4
import BeautifulSoup res = urllib2.urlopen( http://ll.jus.or.jp/2014/program ) soup = BeautifulSoup(res.read()) soup.title >>> <title>プログラム ¦ LL Diver</title> for link in soup.find_all( a'): print(link.get( href')) >>> http://ll.jus.or.jp/2014/ >>> http://ll.jus.or.jp/2014/
18.
pyquery • jQuery風にHTML/XML操作が可能 • パーサーにはlxmlを使用(高速) •
JQuery風のセレクタを利用できる • スクレイピング
19.
サンプル from pyquery import
PyQuery as pq d = pq("http://ll.jus.or.jp/2014/program") print d( title").text() >>> プログラム ¦ LL Diver print d( .entry-title").text() >>> プログラム print d( #day ).text() >>> 昼の部
20.
Scrapy • Scarpyは速くて、ハイレベルなスクレイピング クローラーのフレームワーク。Webサイトのク ロールと、構造化されたデータを取り出すのに 使用する。幅広い目的に使用できる。データマ イニングから、モニタリング、自動テストなど
21.
Scrapyの特徴 • クローリング、スクレイピングフレームワーク • シンプル、拡張性がある •
バッテリー付属 • ドキュメント、テストが充実 • コミュニティが活発 • Python2.7のみ対応
22.
Scrapyの主な機能 • Webページからの情報抽出 • Robots.txtのパース •
ドメイン、IPアドレス単位のクロール間隔調整 • 並行処理 • エラー時のリトライ(回数を設定) • http://orangain.hatenablog.com/entry/scrapy
23.
アーキテクチャ https://scrapy.readthedocs.org/en/latest/topics/architecture.html
24.
Scrapy Engine https://scrapy.readthedocs.org/en/latest/topics/architecture.html
25.
Scrapy Engine • 全てのコンポーネントを制御するシステム •
特定のアクションが発生したら、イベントを起 こす責任を持つ。
26.
Spider https://scrapy.readthedocs.org/en/latest/topics/architecture.html
27.
Spider • ユーザーが作成するカスタムクラス • 取得したいURL、抽出する項目などを記述する •
取得した内容をスクレイピングして、Itemとし てItem Pipelineに送る
28.
Scheduler https://scrapy.readthedocs.org/en/latest/topics/architecture.html
29.
Scheduler • リクエストのトラフィック等の制御
30.
Downloader https://scrapy.readthedocs.org/en/latest/topics/architecture.html
31.
Downloader • 実際にWebページを取得する • Downloader
middlewaresで処理を差し込む事 ができる。(キャッシュなど)
32.
Item Pipeline https://scrapy.readthedocs.org/en/latest/topics/architecture.html
33.
Item Pipeline • スパイダーによって抽出されたアイテムを出力 •
データのクレンジング、検証 • 永続化(JSON、File、DB、Mail)など
34.
手順 • Scrapy プロジェクトの作成 •
抽出するアイテムの定義 • アイテムの抽出とクローリングのためのSpider を作成 • 抽出したアイテムのパイプライン部分作成 • 基本はSpiderとItem部分を書いていけばOK
35.
プロジェクト作成 $ scrapy startproject
scrapy_sample $ tree scrapy_sample scrapy_sample/ ├── scrapy.cfg └── scrapy_sample ├── __init__.py ├── items.py ├── pipelines.py ├── settings.py └── spiders └── __init__.py
36.
抽出するItem定義 class TorrentItem(scrapy.Item): url =
scrapy.Field() name = scrapy.Field()
37.
Spider作成 class MininovaSpider(CrawlSpider): name =
'mininova' allowed_domains = ['mininova.org'] start_urls = ['http://www.mininova.org/yesterday/'] rules = [Rule(LinkExtractor(allow=['/tor/d+']), parse_torrent')] ! def parse_torrent(self, response): torrent = TorrentItem() torrent['url'] = response.url torrent['name'] = response.xpath("//h1/text()").extract() return torrent
38.
実行 $ scrapy crawl
mininova -o scraped_data.json $ cat scraped_data.json { "url": "http://www.mininova.org/tor/13277197", "name": ["lady anna voice free plugin VSTI free download new by Softrave ] }, { "url": "http://www.mininova.org/tor/13277195", "name": ["mandala VSTI free download new by Softrave ] },
39.
まとめ • Pythonでスクレイピングを行う場合、色々なア プローチがある。 • 標準のライブラリから、フレームワークまで選 択肢は沢山あるので、要件に合わせて使用すれ ば良い •
Pythonに限らず、LL言語はスクレイピング用の ライブラリがたくさん。
40.
参考URL • http://scrapy.org (
Scrapy ) • http://www.slideshare.net/MasayukiIsobe/web-scraping-20140622isobe • https://github.com/gawel/pyquery/ ( pyquery ) • http://www.crummy.com/software/BeautifulSoup/ ( BeautfulSoup ) • http://orangain.hatenablog.com/entry/scrapy • http://akiniwa.hatenablog.jp/entry/2013/04/15/001411 • http://tokyoscrapper.connpass.com/ ( Webスクレイピング勉強会 ) • http://www.slideshare.net/nezuQ/web-36143026?ref=http://www.slideshare.net/slideshow/ embed_code/36143026 • http://qiita.com/nezuq/items/c5e827e1827e7cb29011( 注意事項 )
41.
宣伝 • PyCon JP
2014は来月開催です。
42.
宣伝 • https://pycon.jp/2014/ • 9/12
(金)∼ 9/15(月)の4日間 • チュートリアル(9/12) • カンファレンス(9/13、14) • スプリント(9/15) • 絶賛準備中。お待ちしております!
43.
ご静聴ありがとうございました。
Download