亚洲综合原千岁中文字幕_国产精品99久久久久久久vr_无码人妻aⅴ一区二区三区浪潮_成人h动漫精品一区二区三

主頁 > 知識庫 > Python基于百度AI實現(xiàn)抓取表情包

Python基于百度AI實現(xiàn)抓取表情包

熱門標簽:企業(yè)彩鈴地圖標注 外賣地址有什么地圖標注 預覽式外呼系統(tǒng) 電銷機器人錄音要學習什么 上海正規(guī)的外呼系統(tǒng)最新報價 煙臺電話外呼營銷系統(tǒng) 銀川電話機器人電話 如何地圖標注公司 長春極信防封電銷卡批發(fā)

本文先抓取網(wǎng)絡上的表情圖像,然后利用百度 AI 識別表情包上的說明文字,并利用表情文字重命名文件,這樣當發(fā)表情包時,不需要逐個打開查找,直接根據(jù)文件名選擇表情并發(fā)送。

一、百度 AI 開放平臺的 Key 申請方法

本例使用了百度 AI 的 API 接口實現(xiàn)文字識別。因此需要先申請對應的 API 使用權限,具體步驟如下:

在網(wǎng)頁瀏覽器(比如 Chrome 或者火狐) 的地址欄中輸入 ai.baidu.com,進入到百度云 AI 的官網(wǎng),在該頁面中單擊右上角的 控制臺 按鈕。

進入到百度云 AI 官網(wǎng)的登錄頁面,輸入百度賬號和密碼,如果沒有,可以單擊 立即注冊 超鏈接進行注冊申請。

登錄成功后,進入到百度云 AI 官網(wǎng)的控制臺頁面,單擊左側導航的 產品服務,展開列表,在列表的最右側下方看到有 人工智能 的分類,然后選擇 圖像識別,或者直接選擇 文字識別,如下圖所示。

進入圖像識別一概覽 頁面,要使用百度云 AI 的 API,首先需要申請權限,申請權限之前需要先創(chuàng)建自己的應用,因此單擊 創(chuàng)建應用按鈕,如下圖所示。

進入到 創(chuàng)建應用 頁面,該頁面中需要輸入應用的名稱,選擇應用類型,并選擇接口,注意:這里的接口可以多選擇一些,把后期可能用到的接口全部選擇上,這樣,在開發(fā)其他實例時,就可以直接使用了;選擇完接口后,選擇文字識別包名,這里選擇 不需要,輸入應用描述,單擊 立即創(chuàng)建 按鈕,如下圖所示。



創(chuàng)建完成后,單擊 返回應用列表 按鈕,頁面跳轉到應用列表頁面,在該頁面中即可查看創(chuàng)建的應用,以及百度云自動為您分配的 AppID,API Key,Secret Key,這些值根據(jù)應用的不同而不同,因此一定要保存好,以便開發(fā)時使用。

 

二、抓取貼吧表情包

本例在百度貼吧中找到了一些自制的表情包:https://tieba.baidu.com/p/5522091060
現(xiàn)在想把圖片都爬下來,具體操作步驟如下:

Network 抓包看下返回的數(shù)據(jù)是否和 Element 一致,即是否包含想要的數(shù)據(jù),而不是通過 JS 黑魔法進行加載的。復制下第一個圖的圖片鏈接,到 Network 選項卡里的 Response 里查找一下。

在 Network 抓包中沒有發(fā)現(xiàn) Ajax 動態(tài)加載數(shù)據(jù)的蹤跡。

點擊第二頁,抓包發(fā)現(xiàn)了 Ajax 加載的痕跡。


以第一個圖的 url 搜下,同樣可以找到。

三個參數(shù)猜測 pn 為 page_number,即頁數(shù),postman 或者自己寫代碼模擬請求,記得塞入 Host 和 X-Requested-With,驗證 pn=1 是否為第一頁數(shù)據(jù),驗證通過,即所有頁面數(shù)據(jù)都可以通過這個接口拿到。

先加載拿到末頁是第幾頁,然后走一波循環(huán)遍歷即可解析數(shù)據(jù)獲得圖片 url,寫入文件,使用多個線程進行下載,詳細代碼如下。

# 抓取百度貼吧某個帖子里的所有圖片
import requests
import time
import threading
import queue
from bs4 import BeautifulSoup
import chardet
import os

tiezi_url = "https://tieba.baidu.com/p/5522091060"
headers = {
    'Host': 'tieba.baidu.com',
    'User-Agent': 'User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KH'
                  'TML, like Gecko) Chrome/90.0.4430.212 Safari/537.36',
}
pic_save_dir = 'tiezi_pic/'
if not os.path.exists(pic_save_dir):  # 判斷文件夾是否存在,不存在就創(chuàng)建
    os.makedirs(pic_save_dir)

pic_urls_file = 'tiezi_pic_urls.txt'
download_q = queue.Queue()  # 下載隊列


# 獲得頁數(shù)
def get_page_count():
    try:
        resp = requests.get(tiezi_url, headers=headers, timeout=5)
        if resp is not None:
            resp.encoding = chardet.detect(resp.content)['encoding']
            html = resp.text
            soup = BeautifulSoup(html, 'lxml')
            a_s = soup.find("ul", attrs={'class': 'l_posts_num'}).findAll("a")
            for a in a_s:
                if a.get_text() == '尾頁':
                    return a['href'].split('=')[1]
    except Exception as e:
        print(str(e))


# 下載線程
class PicSpider(threading.Thread):
    def __init__(self, t_name, func):
        self.func = func
        threading.Thread.__init__(self, name=t_name)

    def run(self):
        self.func()


# 獲得每頁里的所有圖片URL
def get_pics(count):
    params = {
        'pn': count,
        'ajax': '1',
        't': int(time.time())
    }
    try:
        resp = requests.get(tiezi_url, headers=headers, timeout=5, params=params)
        if resp is not None:
            resp.encoding = chardet.detect(resp.content)['encoding']
            html = resp.text
            soup = BeautifulSoup(html, 'lxml')
            imgs = soup.findAll('img', attrs={'class': 'BDE_Image'})
            for img in imgs:
                print(img['src'])
                with open(pic_urls_file, 'a') as fout:
                    fout.write(img['src'])
                    fout.write('\n')
            return None
    except Exception:
        pass


# 下載線程調用的方法
def down_pics():
    global download_q
    while not download_q.empty():
        data = download_q.get()
        download_pic(data)
        download_q.task_done()


# 下載調用的方法
def download_pic(img_url):
    try:
        resp = requests.get(img_url, headers=headers, timeout=10)
        if resp.status_code == 200:
            print("下載圖片:" + img_url)
            pic_name = img_url.split("/")[-1][0:-1]
            with open(pic_save_dir + pic_name, "wb+") as f:
                f.write(resp.content)

    except Exception as e:
        print(e)


if __name__ == '__main__':
    print("檢索判斷鏈接文件是否存在:")
    if not os.path.exists(pic_urls_file):
        print("不存在,開始解析帖子...")
        page_count = get_page_count()
        if page_count is not None:
            headers['X-Requested-With'] = 'XMLHttpRequest'
            for page in range(1, int(page_count) + 1):
                get_pics(page)
        print("鏈接已解析完畢!")
        headers.pop('X-Requested-With')
    else:
        print("存在")
    print("開始下載圖片~~~~")
    headers['Host'] = 'imgsa.baidu.com'
    fo = open(pic_urls_file, "r")
    pic_list = fo.readlines()

    threads = []
    for pic in pic_list:
        download_q.put(pic)
    for i in range(0, len(pic_list)):
        t = PicSpider(t_name='線程' + str(i), func=down_pics)
        t.daemon = True
        t.start()
        threads.append(t)
    download_q.join()
    for t in threads:
        t.join()
    print("圖片下載完畢")

運行結果:


下面通過 OCR 文字識別技術,直接把表情里的文字提出來,然后來命名圖片,這樣就可以直接文件搜索表情關鍵字,可以快速找到需要的表情圖片。使用谷歌的 OCR 文字識別引擎:Tesseract,對于此類大圖片小文字,不太適合,識別率太低,甚至無法識別,這時使用百度云 OCR 比較合適,它能夠自動定位到圖片中具體位置,并找出圖片中所有的文字。

三、使用 Baidu-aip

申請百度 AI 的應用 key 之后,就可以在本地系統(tǒng)中安裝 Baidu-aip,代碼如下:

pip install baidu-aip 

先識別一張圖片,看看效果如何:

from aip import AipOcr

# 新建一個AipOcr對象
config = {
    'appId': '填寫自己的appId',
    'apiKey': '填寫自己的apiKey',
    'secretKey': '填寫自己的secretKey'
}
client = AipOcr(**config)


# 識別圖片里的文字
def img_to_str(image_path):
    # 讀取圖片
    with open(image_path, 'rb') as fp:
        image = fp.read()

        # 調用通用文字識別, 圖片參數(shù)為本地圖片
    result = client.basicGeneral(image)
    # 返回拼接結果
    if 'words_result' in result:
        return '\n'.join([w['words'] for w in result['words_result']])


if __name__ == '__main__':
    print(img_to_str('tiezi_pic/5c0ddb1e4134970aebd593e29ecad1c8a5865dbd.jpg'))

運行程序,結果如下圖所示:


百度 AI 返回的是一個 JSON 格式數(shù)據(jù),如下所示。返回一個字典對象,包含 log_id、words_result_num、words_result 三個鍵,其中 words_result_num 表示識別的文本行數(shù),words_result 是一個列表,每個列表項目記錄一條識別的文本,每個項目返回一個字典對象,包含 words 鍵,words 表示識別的文本。

{'words_result': [{'words': 'o。o'}, {'words': '6226-16:59'}, {'words': '絕望jpg'}], 'log_id': 1393611954748129280, 'words_result_num': 3}
o。o
6226-16:59
絕望jpg

由于每個圖片中可能包含很多文字信息,如水印的日期文字,以及個別特殊的文字符號被誤解析,我們需要提出的是漢字或字母信息,同時可能會包含多條漢字信息,本例選擇漢字或字母最長的一條來命名文件。完整的示例代碼如下:

# 識別圖片文字,批量命名圖片文字

import os
from aip import AipOcr
import re
import datetime

# 新建一個AipOcr對象
config = {
    'appId': '填寫自己的appId',
    'apiKey': '填寫自己的apiKey',
    'secretKey': '填寫自己的secretKey'
}
client = AipOcr(**config)

pic_dir = r"tiezi_pic/"


# 讀取圖片
def get_file_content(file_path):
    with open(file_path, 'rb') as fp:
        return fp.read()


# 識別圖片里的文字
def img_to_str(image_path):
    image = get_file_content(image_path)
    # 調用通用文字識別, 圖片參數(shù)為本地圖片
    result = client.basicGeneral(image)
    # 結果拼接返回
    words_list = []
    if 'words_result' in result:
        if len(result['words_result']) > 0:
            for w in result['words_result']:
                words_list.append(w['words'])
            file_name = get_longest_str(words_list)
            print(file_name)
            file_dir_name = pic_dir + str(file_name).replace("/", "") + '.jpg'
            if os.path.exists(file_dir_name):  # 處理文件重名問題
                sec = datetime.datetime.now().microsecond  # 獲取當前毫秒時值
                file_dir_name = pic_dir + str(file_name).replace("/", "") + str(sec) + '.jpg'
            try:
                os.rename(image_path, file_dir_name)
            except Exception:
                print(" 重命名失敗:", image_path, " => ", file_name)


# 獲取字符串列表中最長的字符串
def get_longest_str(str_list):
    pat = re.compile(r'[\u4e00-\u9fa5A-Za-z]+')
    str = max(str_list, key=hanzi_len)
    result = pat.findall(str)
    return ''.join(result)


def hanzi_len(item):
    pat = re.compile(r'[\u4e00-\u9fa5]+')
    sum = 0
    for i in item:
        if pat.search(i):
            sum += 1
    return sum


# 遍歷某個文件夾下所有圖片
def query_picture(dir_path):
    pic_path_list = []
    for filename in os.listdir(dir_path):
        pic_path_list.append(dir_path + filename)
    return pic_path_list


if __name__ == '__main__':
    pic_list = query_picture(pic_dir)
    if len(pic_list) > 0:
        for i in pic_list:
            img_to_str(i)

運行程序,結果如下圖所示:

到此這篇關于Python基于百度AI實現(xiàn)抓取表情包的文章就介紹到這了,更多相關Python 抓取表情包內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python模擬登錄微博并爬取表情包
  • Python實現(xiàn)微信表情包炸群功能
  • Python基礎進階之海量表情包多線程爬蟲功能的實現(xiàn)
  • Python自動生產表情包
  • python實戰(zhàn)之制作表情包游戲

標簽:潮州 佳木斯 湖北 上饒 宜昌 西寧 珠海 盤錦

巨人網(wǎng)絡通訊聲明:本文標題《Python基于百度AI實現(xiàn)抓取表情包》,本文關鍵詞  Python,基于,百度,實現(xiàn),抓取,;如發(fā)現(xiàn)本文內容存在版權問題,煩請?zhí)峁┫嚓P信息告之我們,我們將及時溝通與處理。本站內容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Python基于百度AI實現(xiàn)抓取表情包》相關的同類信息!
  • 本頁收集關于Python基于百度AI實現(xiàn)抓取表情包的相關信息資訊供網(wǎng)民參考!
  • 推薦文章
    91麻豆国产| 精品在线免费播放| 九九久久国产精品大片| 日本在线www| 精品国产一级毛片| 国产网站在线| 91麻豆爱豆果冻天美星空| 天天做人人爱夜夜爽2020毛片| 欧美a级片视频| 国产视频一区二区在线观看| 日韩在线观看免费| 韩国三级香港三级日本三级| 亚洲精品影院| 精品国产一区二区三区久久久狼| 亚洲第一页色| 欧美激情在线精品video| 青青久久网| 成人a大片在线观看| 尤物视频网站在线观看| 亚飞与亚基在线观看| 日韩男人天堂| 欧美日本免费| 韩国三级视频网站| 日本免费区| 日本免费区| 天天色色网| 韩国三级一区| 国产麻豆精品视频| 日韩在线观看视频网站| 免费一级片在线| 久久久成人网| 日本久久久久久久 97久久精品一区二区三区 狠狠色噜噜狠狠狠狠97 日日干综合 五月天婷婷在线观看高清 九色福利视频 | 韩国毛片基地| 四虎影视库| 欧美夜夜骑 青草视频在线观看完整版 久久精品99无色码中文字幕 欧美日韩一区二区在线观看视频 欧美中文字幕在线视频 www.99精品 香蕉视频久久 | 九九精品久久久久久久久| 一级片免费在线观看视频| 美女免费精品高清毛片在线视| 91麻豆爱豆果冻天美星空| 精品国产一区二区三区久久久蜜臀 | 中文字幕一区二区三区 精品| 黄视频网站在线观看| 精品久久久久久中文字幕一区| 99久久精品国产麻豆| 美女免费精品高清毛片在线视| 99久久精品国产国产毛片| 久久精品道一区二区三区| 欧美国产日韩一区二区三区| 精品视频在线看 | 色综合久久天天综合观看| 好男人天堂网 久久精品国产这里是免费 国产精品成人一区二区 男人天堂网2021 男人的天堂在线观看 丁香六月综合激情 | a级毛片免费全部播放| 久久久久久久网| 好男人天堂网 久久精品国产这里是免费 国产精品成人一区二区 男人天堂网2021 男人的天堂在线观看 丁香六月综合激情 | 色综合久久天天综合| 欧美激情在线精品video| 青青久久国产成人免费网站| 国产伦久视频免费观看视频| 日日日夜夜操| 国产伦久视频免费观看 视频| 国产综合91天堂亚洲国产| 国产麻豆精品免费视频| 精品国产亚洲一区二区三区| 欧美激情在线精品video| 麻豆系列 在线视频| 天天做日日爱夜夜爽| 国产一区二区精品久久| 国产国语对白一级毛片| 亚欧乱色一区二区三区| 日韩中文字幕一区二区不卡| 91麻豆精品国产自产在线| 免费国产在线观看不卡| 一级女性全黄久久生活片| 午夜欧美成人久久久久久| 中文字幕97| 午夜在线亚洲男人午在线| 欧美激情一区二区三区视频高清| 99热精品一区| 国产a视频| 亚洲第一色在线| 久久精品免视看国产成人2021| 国产综合91天堂亚洲国产| 99久久精品国产国产毛片| 欧美另类videosbestsex久久 | 久久精品免视看国产成人2021| 欧美1区| 久久国产一区二区| 日日日夜夜操| 亚洲 激情| 久久精品成人一区二区三区| 午夜久久网| 黄色免费三级| 亚洲第一色在线| 午夜家庭影院| 久草免费在线观看| 九九精品影院| 四虎久久影院| 99色播| 91麻豆高清国产在线播放| 欧美国产日韩一区二区三区| 国产成人欧美一区二区三区的| 国产亚洲精品成人a在线| 欧美另类videosbestsex高清| 可以在线看黄的网站| 高清一级做a爱过程不卡视频| 天天做日日爱| 亚洲 男人 天堂| 午夜在线影院| 欧美激情一区二区三区视频高清| 四虎影视久久| 999久久66久6只有精品| 日韩免费片| 欧美日本国产| 中文字幕一区二区三区 精品| 午夜在线亚洲| 精品视频在线观看免费| 九九久久99| 久久久成人网| 久久福利影视| 日本久久久久久久 97久久精品一区二区三区 狠狠色噜噜狠狠狠狠97 日日干综合 五月天婷婷在线观看高清 九色福利视频 | 国产a一级| 国产亚洲免费观看| 国产一级强片在线观看| 欧美激情一区二区三区在线| 久草免费资源| a级黄色毛片免费播放视频| 青草国产在线观看| 天天做日日爱| 国产视频网站在线观看| 免费的黄视频| 精品视频一区二区| 午夜久久网| 国产成+人+综合+亚洲不卡| 九九干| 国产成人欧美一区二区三区的| 国产a视频精品免费观看| 天堂网中文在线| 精品国产一区二区三区国产馆| 国产一区二区精品久| 精品视频在线看| 九九精品久久久久久久久| 国产综合成人观看在线| 日韩综合| a级毛片免费全部播放| 韩国三级一区| 深夜做爰性大片中文| 国产91精品一区| 国产极品白嫩美女在线观看看| 欧美激情伊人| 亚洲 男人 天堂| 免费毛片播放| 日韩中文字幕一区| 久草免费在线观看| 国产91精品一区| 国产原创视频在线| 欧美大片a一级毛片视频| 精品视频在线看 | 国产91素人搭讪系列天堂| 你懂的日韩| 精品视频在线观看免费| 日本免费看视频| 国产精品免费久久| 久草免费在线观看| 成人免费网站久久久| 欧美激情一区二区三区视频高清 | 国产综合成人观看在线| 香蕉视频久久| 国产伦精品一区二区三区无广告 | 欧美18性精品| 午夜精品国产自在现线拍| 高清一级做a爱过程不卡视频| 一级毛片看真人在线视频| 天天做日日干| 中文字幕一区二区三区 精品| 日本伦理网站| 日韩中文字幕一区| 九九热国产视频| 日本在线不卡视频| 欧美日本国产| 91麻豆精品国产自产在线| 精品国产亚一区二区三区| 欧美另类videosbestsex久久| 日韩欧美一二三区| 成人高清视频在线观看| 免费国产一级特黄aa大片在线| 久久成人综合网| 国产高清视频免费观看| 好男人天堂网 久久精品国产这里是免费 国产精品成人一区二区 男人天堂网2021 男人的天堂在线观看 丁香六月综合激情 | 日本久久久久久久 97久久精品一区二区三区 狠狠色噜噜狠狠狠狠97 日日干综合 五月天婷婷在线观看高清 九色福利视频 | 日韩av成人| 日本久久久久久久 97久久精品一区二区三区 狠狠色噜噜狠狠狠狠97 日日干综合 五月天婷婷在线观看高清 九色福利视频 | 日日夜夜婷婷| 日本在线不卡视频| 久久久久久久免费视频| 色综合久久天天综合观看| 精品国产一区二区三区免费 | 色综合久久天天综合观看| 午夜在线亚洲| 一级女性全黄久久生活片| 精品国产一区二区三区久久久蜜臀 |