画像スクレイピングをやってみました。
import requests
import random
import shutil
import bs4
import ssl
ssl._create_default_https_context = ssl._create_unverified_context
def image(data):
Res = requests.get("https://www.google.com/search?hl=jp&q=" + data + "&btnG=Google+Search&tbs=0&safe=off&tbm=isch")
Html = Res.text
Soup = bs4.BeautifulSoup(Html, 'lxml')
links = Soup.find_all("img")
link = random.choice(links).get("src")
return link
def download_img(url, file_name):
r = requests.get(url, stream=True)
if r.status_code == 200:
with open(str(file_name)+".png", 'wb') as f:
r.raw.decode_content = True
shutil.copyfileobj(r.raw, f)
num = 5 # ほしい画像の数
data = kuma # 検索ワード
for i in range(num):
link = image(data)
download_img(link, i+1)
以下実行結果

重なってる画像の削除に関しては、↓サイト様を参照してください
- スクレイピングに関する注意事項:https://topcourt-law.com/internet_security/scraping-illegal

コメントを残す