成人怡红院-成人怡红院视频在线观看-成人影视大全-成人影院203nnxyz-美女毛片在线看-美女免费黄

站長資訊網(wǎng)
最全最豐富的資訊網(wǎng)站

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

芯片大家都不陌生。在當(dāng)今疫情下,顯卡,車機(jī)的芯片產(chǎn)量銳減影響了不少人的購物需求(反正你也買不到),也讓不少人重新認(rèn)識了半導(dǎo)體行業(yè)。閑來無事,我們可以獲取一下T網(wǎng)站的芯片庫存和芯片信息。

一、列表頁請求分析

進(jìn)入頁面,就能看到我們需求的信息了。

但是,在頁面請求完成之前,有一點點不對勁,就是頁面的各個部份請求的速度是不一樣的:

所以啊,需要的數(shù)據(jù),大概率不是簡單的get請求,所以要進(jìn)一步去看,特意在開發(fā)者模式—Fetch/XHR選項卡中有一個請求,返回值正好是我們需要的內(nèi)容:

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

程序員必備接口測試調(diào)試工具:立即使用
Apipost = Postman + Swagger + Mock + Jmeter
Api設(shè)計、調(diào)試、文檔、自動化測試工具
后端、前端、測試,同時在線協(xié)作,內(nèi)容實時同步

這一條鏈接返回了所有的數(shù)據(jù),無需翻頁,下面開始請求鏈接。

二、列表頁請求

根據(jù)上面的鏈接,直接get請求,分析json即可,上代碼:

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

 def getItemList():        url = "https://www.xx.com.cn/selectiontool/paramdata/family/3658/results?lang=cn&output=json"        headers = {            'authority': 'www.xx.com.cn',            "accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",            "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",        }        res = getRes(url,headers,'','','GET')//自己寫的請求方法        nodes = res.json()['ParametricResults']        for node in nodes:            data = {}            data["itemName"] = node["o3"] #名稱            data["inventory"] = node["p3318"] #庫存            data["price"] = node["p1130"]['multipair1']['l'] #價格            data["infoUrl"] = f"https://www.xx.com.cn/product/cn/{node['o1']}"#詳情URL
登錄后復(fù)制

分析上面的json,可知 o3 是商品名,p3318是庫存,p1130里面的內(nèi)容有一個帶單位的價格,o1是型號,可湊出詳情鏈接,下面是請求結(jié)果:

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

三、詳情頁分析

終于拿到詳情頁鏈接了,該獲取剩下的內(nèi)容了。

打開開發(fā)者模式,沒有額外的請求,只有一個包含內(nèi)容的get請求。

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

那直接請求不就得了,上代碼:

def getItemInfo(url):       logger.info(f'正在請求詳情url-{url}')       headers = {           'authority': 'www.xx.com.cn',           'accept': "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",           'user-agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",           'referer':'https://www.xx.com.cn/product/cn/THS4541-DIE',           }        res = getRes(url, headers,'', '', 'GET')//自己寫的請求方法        content = res.content.decode('utf-8')
登錄后復(fù)制

但是發(fā)現(xiàn),請求的詳情頁,跟開發(fā)者模式的預(yù)覽怎么不太一樣?

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

我這里的第一反應(yīng)就覺得,完了,這個需要cookie。

繼續(xù)分析,清屏開發(fā)者模式,清除cookie,再次訪問詳情鏈接,在All選項卡中,可以發(fā)現(xiàn):

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

本以為該請求一次的詳情頁鏈接請求了兩次,兩次中間還有一個xhr請求。

預(yù)覽第一次請求,可以發(fā)現(xiàn)跟剛才本地請求的內(nèi)容相差無幾:

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

所以問題出在第二次的請求,進(jìn)一步分析:

查看第二次的get請求,與第一次的請求相差了一堆cookie

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

簡化cookie,發(fā)現(xiàn)這些cookie最關(guān)鍵的參數(shù)是ak_bmsc這一部分,而這一部分參數(shù),就來自上一個xhr請求中的響應(yīng)頭set-cookie中:

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

分析這個xhr請求,請求鏈接

這是個post請求,先從payload參數(shù)下手:

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

這個bm-verify參數(shù),是不是有些眼熟?這就是第一次的get請求返回的內(nèi)容嗎,下面還有一個pow參數(shù):

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

"pow":j,這個j參數(shù)就在上面,聲明了i和兩個拼接的數(shù)字字符串轉(zhuǎn)成int之后相加之后的結(jié)果:

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

通過這一系列請求,返回了最終get請求所需要的cookie,講的比較瑣碎,上代碼:

 #詳情需要cookie    def getVerify(url):        infourl = url        headers = {            'authority': 'www.xx.com.cn',            "accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",            "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",        }        proxies = getApiIp()//取代理        if proxies:            #無cookie訪問詳情頁拿參數(shù)bm-verify,pow            res = getRes(infourl,headers,proxies,'','GET')            if res:                #拿第一次請求的ak_bmsc                cookie = re.findall("ak_bmsc=.*?;",res.headers['set-cookie'])[0]                #拿bm-verify                verifys = re.findall('"bm-verify": "(.*?)"', res.text)[0]                #合并字符串轉(zhuǎn)int相加取pow                a = re.findall('var i = (d+);',res.text)[0]                b = re.findall('Number("(.*?)");',res.text)[0]                b = int(b.replace('" + "',''))                pow = int(a)+b                post_data = {                    'bm-verify': verifys,                    'pow':pow                }                #轉(zhuǎn)json                post_data = json.dumps(post_data)                if verifys:                    logger.info('第一次參數(shù)獲取完畢')                    return post_data,proxies,cookie                else:                    print('verify獲取異常')            else:                print('verify請求出錯')         # 第二次帶參數(shù)訪問驗證鏈接    def getCookie(url):        post_headers = {            "authority": "www.xx.com.cn",            "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.71 Safari/537.36",            "accept": "*/*",            "content-type": "application/json",            "origin": "https://www.xx.com.cn",            "referer":url,        }        post_data,proxies,c_cookie = getVerify(url)        post_headers['Cookie'] = c_cookie        posturl = "https://www.xx.com.cn/_sec/verify?provider=interstitial"        check = getRes(posturl,post_headers,proxies,post_data,'POST')        if check:        #從請求頭拿到ak_bmsc cookie            cookie = check.headers['Set-Cookie']            cookie = re.findall("ak_bmsc=.*?;",cookie)[0]            if cookie:                logger.info('Cookie獲取完畢')                return cookie,proxies            else:                print('cookie獲取異常')        else:            print('cookie請求出錯')
登錄后復(fù)制

簡單的概括一下詳情頁的請求流程:

第一次請求,取得所需參數(shù)bm-verify,pow,cookie,提供給下一次的post請求(getVerify方法)

第二次請求,根據(jù)已知條件進(jìn)行post請求,并獲取響應(yīng)頭cookie的ak_bmsc(getCookie)

切記,在整個獲取cookie的三次請求過程中,第二、三兩次請求都需要伴隨著上一次請求的ak_bmsc作為cookie傳遞,第二次請求需要第一次的ak_bmsc,最終請求需要第二次的ak_bmsc。

四、詳情頁請求

 def getItemInfo(url):        logger.info(f'正在請求詳情url-{url}')        cookie,proxies = getCookie(url)        headers = {            'authority': 'www.xx.com.cn',            'accept': "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",            'user-agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",            'referer':'https://www.xx.com.cn/product/cn/THS4541-DIE',            'cookie':cookie        }        res = getRes(url, headers,proxies, '', 'GET')        content = res.content.decode('utf-8')        print(content)        exit()        sel = Selector(text=content)        Parameters = sel.xpath('//ti-tab-panel[@tab-title="參數(shù)"]/ti-view-more/div').extract_first()        Features = sel.xpath('//ti-tab-panel[@tab-title="特性"]/ti-view-more/div').extract_first()        Description = sel.xpath('//ti-tab-panel[@tab-title="描述"]/ti-view-more').extract_first()        if Parameters and Features and Description:            return Parameters,Features,Description
登錄后復(fù)制

通過上一步cookie的獲取,帶著cookie再次訪問詳情鏈接,就可以順利的獲取內(nèi)容并可以使用xpath進(jìn)行解析,獲取需要的內(nèi)容。

五、代理設(shè)置

T網(wǎng)站詳情頁帶cookie請求有100多次,如果用本地代理一直去請求,會有IP封鎖的可能性出現(xiàn),導(dǎo)致無法正常獲取。所以,需要高效請求的話,優(yōu)質(zhì)穩(wěn)定的代理IP必不可少,我這里使用的ipidea代理請求的T網(wǎng)站,數(shù)據(jù)很快就訪問出來了。

地址:http://www.ipidea.net/?utm-source=csdn&utm-keyword=?wb ,首次可以白嫖流量哦。本次使用的api獲取,代碼如下:

 # api獲取ip    def getApiIp():        # 獲取且僅獲取一個ip        api_url = 'http://tiqu.ipidea.io:81/abroad?num=1&type=2&lb=1&sb=0&flow=1?ions=&port=1'        res = requests.get(api_url, timeout=5)        try:            if res.status_code == 200:                api_data = res.json()['data'][0]                proxies = {                    'http': 'http://{}:{}'.format(api_data['ip'], api_data['port']),                    'https': 'http://{}:{}'.format(api_data['ip'], api_data['port']),                }                print(proxies)                return proxies            else:                print('獲取失敗')        except:            print('獲取失敗')
登錄后復(fù)制

六、代碼匯總

 # coding=utf-8    import requests    from scrapy import Selector    import re    import json    from loguru import logger         # api獲取ip    def getApiIp():        # 獲取且僅獲取一個ip        api_url = '獲取代理地址'        res = requests.get(api_url, timeout=5)        try:            if res.status_code == 200:                api_data = res.json()['data'][0]                proxies = {                    'http': 'http://{}:{}'.format(api_data['ip'], api_data['port']),                    'https': 'http://{}:{}'.format(api_data['ip'], api_data['port']),                }                print(proxies)                return proxies            else:                print('獲取失敗')        except:            print('獲取失敗')         def getItemList():        url = "https://www.xx.com.cn/selectiontool/paramdata/family/3658/results?lang=cn&output=json"        headers = {            'authority': 'www.xx.com.cn',            "accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",            "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",        }        proxies = getApiIp()        if proxies:            # res = requests.get(url, headers=headers, proxies=proxies)            res = getRes(url,headers,proxies,'','GET')            nodes = res.json()['ParametricResults']            for node in nodes:                data = {}                data["itemName"] = node["o3"] #名稱                data["inventory"] = node["p3318"] #庫存                data["price"] = node["p1130"]['multipair1']['l'] #價格                data["infoUrl"] = f"https://www.ti.com.cn/product/cn/{node['o1']}"#詳情URL                Parameters, Features, Description = getItemInfo(data["infoUrl"])                data['Parameters'] = Parameters                data['Features'] = Features                data['Description'] = Description                print(data)         #詳情需要cookie    def getVerify(url):        infourl = url        headers = {            'authority': 'www.xx.com.cn',            "accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",            "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",        }        proxies = getApiIp()        if proxies:            #訪問詳情頁拿參數(shù)bm-verify,pow            res = getRes(infourl,headers,proxies,'','GET')            if res:                #拿第一次請求的ak_bmsc                cookie = re.findall("ak_bmsc=.*?;",res.headers['set-cookie'])[0]                #拿bm-verify                verifys = re.findall('"bm-verify": "(.*?)"', res.text)[0]                #字符串轉(zhuǎn)int相加取pow                a = re.findall('var i = (d+);',res.text)[0]                b = re.findall('Number("(.*?)");',res.text)[0]                b = int(b.replace('" + "',''))                pow = int(a)+b                post_data = {                    'bm-verify': verifys,                    'pow':pow                }                #轉(zhuǎn)json                post_data = json.dumps(post_data)                if verifys:                    logger.info('第一次參數(shù)獲取完畢')                    return post_data,proxies,cookie                else:                    print('verify獲取異常')            else:                print('verify請求出錯')         # 第二次帶參數(shù)訪問驗證鏈接    def getCookie(url):        post_headers = {            "authority": "www.xx.com.cn",            "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.71 Safari/537.36",            "accept": "*/*",            "content-type": "application/json",            "origin": "https://www.xx.com.cn",            "referer":url,        }        post_data,proxies,c_cookie = getVerify(url)        post_headers['Cookie'] = c_cookie        posturl = "https://www.xx.com.cn/_sec/verify?provider=interstitial"        check = getRes(posturl,post_headers,proxies,post_data,'POST')        if check:        #從請求頭拿到ak_bmsc cookie            cookie = check.headers['Set-Cookie']            cookie = re.findall("ak_bmsc=.*?;",cookie)[0]            if cookie:                logger.info('Cookie獲取完畢')                return cookie,proxies            else:                print('cookie獲取異常')        else:            print('cookie請求出錯')         def getItemInfo(url):        logger.info(f'正在請求詳情url-{url}')        cookie,proxies = getCookie(url)        headers = {            'authority': 'www.xx.com.cn',            'accept': "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",            'user-agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",            'referer':'https://www.xx.com.cn/product/cn/THS4541-DIE',            'cookie':cookie        }        res = getRes(url, headers,proxies, '', 'GET')        content = res.content.decode('utf-8')        sel = Selector(text=content)        Parameters = sel.xpath('//ti-tab-panel[@tab-title="參數(shù)"]/ti-view-more/div').extract_first()        Features = sel.xpath('//ti-tab-panel[@tab-title="特性"]/ti-view-more/div').extract_first()        Description = sel.xpath('//ti-tab-panel[@tab-title="描述"]/ti-view-more').extract_first()        if Parameters and Features and Description:            return Parameters,Features,Description         #專門發(fā)送請求的方法,代理請求三次,三次失敗返回錯誤    def getRes(url,headers,proxies,post_data,method):        if proxies:            for i in range(3):                try:                    # 傳代理的post請求                    if method == 'POST':                        res = requests.post(url,headers=headers,data=post_data,proxies=proxies)                    # 傳代理的get請求                    else:                        res = requests.get(url, headers=headers,proxies=proxies)                    if res:                        return res                except:                    print(f'第{i}次請求出錯')                else:                    return None        else:            for i in range(3):                proxies = getApiIp()                try:                    # 請求代理的post請求                    if method == 'POST':                        res = requests.post(url, headers=headers, data=post_data, proxies=proxies)                    # 請求代理的get請求                    else:                        res = requests.get(url, headers=headers, proxies=proxies)                    if res:                        return res                except:                    print(f"第{i}次請求出錯")                else:                    return None         if __name__ == '__main__':       getItemList()
登錄后復(fù)制

基于Python通過cookie對某芯片網(wǎng)站信息的獲取

通過上述步驟,已經(jīng)能獲取所需內(nèi)容。

總結(jié)

整個T網(wǎng)站的數(shù)據(jù)獲取,難點就在詳情頁的cookie,(其實也不是很難,只不過cookie太長比較費(fèi)眼)理順了整個請求流程,剩下的就是請求的過程。穩(wěn)定高效的IP代理會讓你事半功倍,通過api獲取可變的代理也不易被網(wǎng)站封禁,從而更好地獲取數(shù)據(jù)。簡化cookie的時候使用合適的請求工具會更方便,比如postman,burp。

這次的整個流程到此結(jié)束,講的比較啰嗦,若有錯誤或者更好的方法請大佬指正!

贊(0)
分享到: 更多 (0)
?
網(wǎng)站地圖   滬ICP備18035694號-2    滬公網(wǎng)安備31011702889846號
熟睡被义子侵犯中文字幕| 十八禁羞羞视频爽爽爽| 日韩精品无码一区二区| 三上悠亚SSⅠN939无码播放| 天天摸天天摸色综合舒服网| 午夜亚洲WWW湿好爽| 亚洲精品无AMM毛片| 在线中文天堂最新版WWW| AV网站免费线看精品| JAPANESE強姦するAV| 国产成人A∨激情视频厨房| 国产午夜成人精品视频APP| 久久97超碰人人澡人人爱| 免费久久人人爽人人爽AV| 人人妻人人澡人人爽人人精品| 牲欲强的熟妇农村老妇女视频| 性XXXX视频播放免费| 亚洲一区在线观看XXX| 97夜夜澡人人爽人人喊A| 大杳蕉在线影院在线播放| 国产精品人人做人人爽| 久久99精品国产99久久6尤物| 美女无遮挡直播软件免费看| 日本免费黄色网址| 羞羞漫画十八禁啪啪漫画免费 | 精品国产乱码久久久久久蜜桃免费 | 丰满少妇被猛烈高清播放 | 尺码最大的国产SUV| 国产小受呻吟GV视频在线观看| 快拨出天我是你母亲| 日韩欧美人妻一区二区三区 | 小宝贝下面的小嘴流水了| 夜夜澡人摸人人添人人看| がーるずらっしゅ在线中文| 国产在线清纯极品美女援交 | 18禁黄污无遮挡无码网站| 粉嫩AV一区二区三区免费观看| 激情综合五月丁香五月激情| 欧美人妇做爰XXXⅩ性高 | 国产精品白丝AV嫩草影院| 久久久精品456亚洲影院| 人人婷婷色综合五月第四人色阁| 亚洲AV无码成人片在线观看 | 欧美日韩精品一区二区在线视频| 无人区一码二码三码四码区别在哪| 在线观看无码AV网址| 边做饭边被躁BD苍井空小说| 禁止18点击进入在线观看尤物| 欧美日韩亚洲中文字幕二区| 亚洲AV极品无码专区在线观看| 97成人无码免费一区二区中文| 国产精品 高清 尿 小便 嘘嘘| 麻豆高清免费国产一区| 无码少妇一区二区性色AV| 2022精品久久久久久中文字幕| 国产精品久久久久7777按摩| 免费免APP看大片视频播放器| 神里凌华被焯出白水视频| 岳故意装睡让我挺进去的电影| 国产精东天美AV影业传媒 | 99久久精品午夜一区二区| 国精产品一二伊田园9777| 人妻少妇精品久久| 亚洲中文精品久久久久久不卡| 高一数学网课免费-2| 蜜乳一区在线视频| 亚洲AV成人AV天堂| 草莓丝瓜芭乐鸭脖奶茶搭配食物| 久久精品熟女亚洲AV噜噜| 爽到憋不住潮喷大喷水视频| 坐公交车居然被弄了2个小时| 国产一二三四区中| 日韩系列中文无码| 最新中文字幕AV无码专区| 精品国产乱码久久久软件下载| 少妇被黑人到高潮喷白浆| 377人体粉嫩噜噜噜| 精品国产免费第一区二区三区 | 亚洲午夜性春猛交77777| 国产成人丝袜视频在线观看| 欧美视频在线观看一区二区三区| 亚洲色播爱爱爱爱爱爱爱| 国产福利精品一区二区| 人妻少妇不满足中文字幕| 永久免费AV网站可以直接看的| 国产成人最新三级在线视频| 人妻AV一区二区三区AV免费| 诱人的老师HD中字| 精品国产性色无码AV网站| 无码人妻丰满熟妇惹区| 成人免费一区二区三区视频| 妺妺窝人体色www免费看| 亚洲熟妇色XXXXX高潮喷水| 国产在视频线精品视频| 特级毛片A级毛片免费播放| 宝贝别忍着喷出来| 欧美成人免费影片区二区| 野兽的夜晚第四季忘不掉的前任 | 疯狂做受XXXX国产| 欧美性猛交╳XXX乱大交| 在公车上拨开内裤进入毛片| 久久99国产精品成人| 亚洲AV日韩AV成人AV| 国产浮力第一页草草影院| 日日玩日日摸日日上| 宝贝把腿开大让我添添电影 | 99品一二三产区区别| 麻豆精品一区二区综合AV| 亚洲无人区码一码二码三码的特点| 国内精品久久久人妻中文字幕 | 国产日韩AV在线播放| 调教秘书跪趴撅起来打光屁股作文 | 亚洲第一狼人伊人AV| 国产亚洲婷婷香蕉久久精品| 午夜131美女爱做视频| 国产精品妇女一二三区| 天堂√最新版中文在线| 公车上玩弄白嫩少妇| 色婷婷日日躁夜夜躁| 丁香花高清在线观看完整版| 日本一区二区在线播放| 成年女人毛片免费观看97| 人妻无码一区二区三区蜜桃| JIZZJIZZ日本护士水好多| 欧洲Av无码放荡人妇网站| IPHONE14欧美日韩版本| 琪琪无码午夜伦埋影院| 啊灬啊灬啊灬快灬高潮了老 | 影音先锋最新AV资源网站| 久久久久久久97| 一区二区av在线| 乱公和我做爽死我视频| 在线中文新版最新版在线| 美人电影在线观看| 999久久久免费精品国产| 欧美人与动牲交XXXXBBBB| VODAFONEWIFI暴力| 日本适合十八岁以上的护肤品男| 草莓视频下载APP| 四虎影库最新地址| 国产精品爽爽ⅴa在线观看| 五月香丁激情欧美啪啪| 好大的奶好爽浪蹄子| 亚洲熟妇色XXXXX无码| 乱码人妻Av一区二区三区| 97久久国产露脸精品国产| 人妻人人添人人爽夜夜欢视频| 吃瓜黑料视频永久地址| 熟女丝袜香蕉双人女高潮| 国产沙发午睡系列999| 亚洲国产精品热久久| 久久夜色精品国产网站| 99视频30精品视频在线观看| 日本一品和二品区别| 国产精品亚洲LV粉色| 亚洲国产成AV人天堂无码| 久久人人爽爽人人爽人人片AV| 18禁无遮挡羞羞啪啪免费网站| 人妻久久久精品99系列A片| 国产成人精品人人| 亚洲AV永久无码精品无码网站| 久久久久久精品免费免费英国| 中文字幕丰满乱子伦无码专区| 人妻 清高 无码 中文字幕| 国产99久久久国产无需播放器 | 公车揉捏顶弄伸入| 亚洲成AV人片在线观看WW| 麻花传媒MV与其它传媒公司比较| YSL千人千色8610| 无码精品A∨在线观看中文| 精品少妇无码一区二区三批| 2021久久精品国产99国产精| 上课忘穿内裤被老师摸到高潮| 国内精品乱码卡一卡2卡麻豆| 影音先锋手机AV资源站| 日本十八禁免费看污网站| 国产强伦姧在线观看无码 | 俄罗斯VODAFONEWIFI| 亚洲AV无码专区在线电影APP| 蜜桃AV噜噜一区二区三区| 当着老公的面被别人欺负该怎么办| 亚洲AV成人精品一区二区三区| 久碰人澡人澡人澡人澡人视频| 把腿张开老子CAO烂你| 亚洲AV嫩草AV极品在线观看| 妺妺窝人体色WWW在线一| 国产99久久久国产精品成人小说 | 久久久久久精品久久久| 波多野结衣AV中文一区二区三区| 亚洲AV成人无码久久WWW| 免费无码AV片在线观看潮喷| 国产成人AV男人的天堂| 野花新免费高清完整在线观看 | 国产在线国偷精品免费看| 中日双语字幕高清在线观看| 四虎必出精品884| 久久夜色精品国产噜噜亚洲SV| 地师传人电影在线观看| 亚洲中文在线精品国产| 少妇人妻系列1~100|