【Class 46】【实例】python爬虫实现 自动搜索 并 打开浏览器_ybdek-程序员宅基地

技术标签: # Python总结  

题目:
每次我在 Google 上搜索一个主题时,都不会一次只看一个搜索结果。
通过鼠标中键点击搜索结果链接,或在点击时按住 CTRL 键,我会在一些新的选项卡中打开前几个链接,稍后再来查看。
我经常搜索 Google,所以这个工作流程(开浏览器,查找一个主题,依次用中键点击几个链接)变得很乏味。
如果我只要在命令行中输入查找主题,就能让计算机自动打开浏览器,并在新的选项卡中显示前面几项查询结果,那就太好了。

我试过使用百度搜索,好像request到的html结果不太对劲,因为切换使用 搜狗 来实现。

搜索结果截图如下:
在这里插入图片描述

分析发现,
搜狗搜索的结果保存在 class=“results” 的div 标签页中,
每一条搜索结果则是以 id=“rb_0” 、 id=“rb_1”、 id=“rb_2”、 id=“rb_3” 以此排列保存在各自的div 中的,
接下来,我们来针对一条结果来解析一下:

<div id="rb_0" class="rb">  
<h3 class="pt">  <!--awbg0-->  
	<a name="dttl" target="_blank" 
	href="/link?url=hedJjaC291PKQBwaC1FcWS2wiAdA0Gor3LlWDN5U--JfryscPRs0Sw.." id="uigs__0" cachestrategy="" bing_pb="">
	Python3.0 - Python Wiki
	</a>  
</h3>  

得出,我们要搜索匹配的过滤项为 class=“pt” 中的 <a> 标签页中的 href
转换为代码为: soup.select(".pt a")

一、实现网页解析代码:

根据我们之前分析到的结果,来实现代码,如下:

#! python3
# -*- coding: utf-8 -*-

# 搜索 python3.0 的搜狗搜索网址为:
# https://www.sogou.com/web?query=python3.0

import requests         # 请求网页
import sys, webbrowser  # 打开浏览器
import bs4              # 解析网页


# Step 1: 获取命令行参数,并请求查找页面
#url_req = 'https://www.baidu.com/s?wd='+' '.join(sys.argv[1:])
url_req = 'https://www.sogou.com/web?query=python3'
print('Googing ... ' + url_req)
res = requests.get(url_req)
#res.raise_for_status()

# Step 2: 使用查找到的html网页 创建一个beautifulsoup对象,
# print(res.text)
soup = bs4.BeautifulSoup(res.text,'html.parser')


# 并解析出搜索结果中排名靠前的查找结果链接
#linkElems = soup.select('h3[class="pt"]')
linkElems = soup.select('.pt a')
print("搜索到 +",len(linkElems)," 条结果\n")

for i in linkElems:
    print("网站名字为: ", i.getText())
    print("网站名字为: ","https://www.sogou.com"+i["href"] , "\n")

搜索结果如下:

PS C:\Users\Administrator\Desktop\tmp> python .\auto_search.py python3.0
Googing ... https://www.sogou.com/web?query=python3
搜索到 + 6  条结果

网站名字为:  Welcome to Python.org
网站名字为:  https://www.sogou.com/link?url=DSOYnZeCC_pLGCR3azjgxFMyOQXUYmsC

网站名字为:  Python 3.0 Release | Python.org
网站名字为:  https://www.sogou.com/link?url=hedJjaC291PRFx54Ckm5K4MetfirSY1MLDRArjCgPAEmrGYwjch1pWXQPqqejAqZ

网站名字为:  Download Python | Python.org
网站名字为:  https://www.sogou.com/link?url=hedJjaC291PRFx54Ckm5K4MetfirSY1Mv-HcF8oWUaNuGGn0nqLfow..

网站名字为:  3.6.5 Documentation
网站名字为:  https://www.sogou.com/link?url=hedJjaC291PES9QO_EuJFi2wiAdA0GorreaVHN88tHY.

网站名字为:  Python Release Python 3.6.0 | Python.org
网站名字为:  https://www.sogou.com/link?url=hedJjaC291PRFx54Ckm5K4MetfirSY1Mv-HcF8oWUaM-01l5oTkETska-6L2xyUf_HV3Xkv7T9o.

网站名字为:  History of Python - Wikipedia
网站名字为:  https://www.sogou.com/link?url=hedJjaC291MaYv3pCw9m-14s5FG_dc7kUjnlhKM9fswwRSAkVLzU4wCRF5JJAEyN

PS C:\Users\Administrator\Desktop\tmp>

从上面的结果看来好像怪怪的,搜索结果不应该这么少啊,
重新分析了了下网站,发现,还真没搜错,
在网页上,分如下两种链接 class = rb 和 class=vrwrap ,如下面的结果:
在这里插入图片描述

二、优化代码,打印全部的搜索结果 及 链接,访问2页

本次我们实现打印 class = rb 和 class=vrwrap 的两种搜索结果
第一页网址为: https://www.sogou.com/web?query=python3&page=1
第二页网址为: https://www.sogou.com/web?query=python3&page=2
第三页网址为: https://www.sogou.com/web?query=python3&page=3

#! python3
# -*- coding: utf-8 -*-

# 搜索 python3.0 的搜狗搜索网址为:
# https://www.sogou.com/web?query=python3.0

import requests         # 请求网页
import sys, webbrowser  # 打开浏览器
import bs4              # 解析网页

def sougou_get(url="", page=3):
    for page_num in range(page):
        # Step 1: 获取命令行参数,并请求查找页面
        #url_req = 'https://www.baidu.com/s?wd='+' '.join(sys.argv[1:])
        url_req = 'https://www.sogou.com/web?query='+url+"&page=%d"%(page_num+1)

        print('\n==================================================')
        print('搜索第%s页结果 ... url = '%(page_num + 1) ,  url_req)
        res = requests.get(url_req)
        #res.raise_for_status()

        # Step 2: 使用查找到的html网页 创建一个beautifulsoup对象,
        # print(res.text)
        soup = bs4.BeautifulSoup(res.text,'html.parser')

        linkElems = []
        # 并解析出搜索结果中排名靠前的查找结果链接,查找 class='pt' 中的<a></a>
        linkElems = soup.select('.pt a')
        print("搜索到 rb 结果 ",len(linkElems)," 条结果\n")

        for i in linkElems:
            link_tmp = i["href"] if str(i["href"]).startswith("http") else "https://www.sogou.com"+i["href"]
            print("网站:", i.getText().ljust(45,'-'),"---> 网址: ",link_tmp)

        # 并解析出搜索结果中排名靠前的查找结果链接,查找 class='vrTitle' 中的<a></a>
        linkElems = soup.select('.vrTitle a')
        print("\n搜索到 vrwrap 结果 ",len(linkElems)," 条结果\n")

        for i in linkElems:
            link_tmp = i["href"] if str(i["href"]).startswith("http") else "https://www.sogou.com"+i["href"]
            print("网站:", i.getText().ljust(45,'-'),"---> 网址: ",link_tmp)

sougou_get("python3.0",2)

搜索结果为:

PS C:\Users\Administrator\Desktop\tmp> python .\auto_search.py python3.0

==================================================
搜索第1页结果 ... url =  https://www.sogou.com/web?query=python3.0&page=1
搜索到 rb 结果  7  条结果

网站: Python3.0 - Python Wiki---------------------- ---> 网址:  https://www.sogou.com/link?url=hedJjaC291PKQBwaC1FcWS2wiAdA0Gor3LlWDN5U--JfryscPRs0Sw..
网站: 在windows64位上安装Python3.0 - 目目分分 - 博客园--------- ---> 网址:  https://www.sogou.com/link?url=hedJjaC291P3yGwc7N55kLSc2ls_Ks2xLMDyZK-RVJ-hWnWPJtCp0ROuHdbcy2wUreaVHN88tHY.
网站: Python Release Python 3.0.1 | Python.org----- ---> 网址:  https://www.sogou.com/link?url=hedJjaC291PRFx54Ckm5K4MetfirSY1MLDRArjCgPAEmrGYwjch1pbF5db3NtiNy
网站: Python 3.0 Release | Python.org-------------- ---> 网址:  https://www.sogou.com/link?url=DSOYnZeCC_pLGCR3azjgxPVsh3WMtN37_1YcStwsExHjJ9-jkpX9jUGbqV0FogTt
网站: Python下载_搜狗下载-------------------------------- ---> 网址:  https://www.sogou.com/link?url=MKQkp13LDfVvQR6BSdpQCmRFzFBIhMTsEEAxK7uWobVQxeJp2-CQQXE0qVFJk7lNKXHd7soLnoZ60y4KXksSvlfKiIQb9R9q
网站: Python3.0 - sinat_22498107的博客 - 程序员宅基地------- ---> 网址:  https://www.sogou.com/link?url=hedJjaC291OB0PrGj_c3jKSZxqzPiqwDKHDpVDgF5ybdEK-_IbtQXXDso8qj4KMH1-5gNUGACsBk39GhCbggGA..
网站: Python 3.0 抢“鲜”体验 - 赖勇浩的编程私伙局 - 程序员宅基地------- ---> 网址:  https://www.sogou.com/link?url=DOb0bgH2eKh1ibpaMGjuyzPrjOiQqSQBsSCsJKb2ZwHe79cTr2raFxv7EW1NzxmH6K5EogIA4E2THtqkTShcUw..

搜索到 vrwrap 结果  3  条结果

网站: Python3 教程 | 菜鸟教程---------------------------- ---> 网址:  https://www.sogou.com/link?url=DSOYnZeCC_psXFayQllNlpRsisbdOH41YnK5ET5CooPSbwsSRTss_5d6NOWGPiC3tsCnpVGpPpA.
网站: 为什么 Python 3.0 设计成不与 Python 2.X 兼容?主要有哪些地方需要... ---> 网址:  https://www.sogou.com/link?url=hedJjaC291MBtMZVirtXo7CqjI0tE6P9WJaAWBJP7DV4VlMwryysWUWhenQX32SN2qxU2cvGENw.
网站: Python3.0 如何抓取网页 - 刘鑫的专栏 - 程序员宅基地------------ ---> 网址:  https://www.sogou.com/link?url=DOb0bgH2eKh1ibpaMGjuy3BnkLJzOPNPDvvFZrTAppWuSdKpCMIsLiLJzXCSMn21KD7La3wm17g.

==================================================
搜索第2页结果 ... url =  https://www.sogou.com/web?query=python3.0&page=2
搜索到 rb 结果  6  条结果

网站: Python 3.0(一) 简介 - Findyou - 博客园------------- ---> 网址:  https://www.sogou.com/link?url=hedJjaC291P3yGwc7N55kLSc2ls_Ks2x2R5R3JaJfggLdpOExvSfVzahLAXRq7bM
网站: 【python3.0最新教程】 - CSDN学院--------------------- ---> 网址:  https://www.sogou.com/link?url=hedJjaC291NyxkzkIR0CeO2HqolAimeRdwK9f2hZhR9-4NKrqvgXuLUfa-6mBqvPTZpc7sD1ZlSt5pUc3zy0dg..
网站: Python3.02.X版本的区别实例分析_python_脚本之家----------- ---> 网址:  https://www.sogou.com/link?url=DSOYnZeCC_rk3y35VO6jB4g2sCglv2gnkmUZ-MrdjBacbhuZ6JGlRQ..
网站: Python3 基础语法 | 菜鸟教程-------------------------- ---> 网址:  https://www.sogou.com/link?url=DSOYnZeCC_psXFayQllNlpRsisbdOH41YnK5ET5CooMAF7efvKzbvYskCncmNSfUHlcNcfy1tZA.
网站: ///在Python3.0中的区别 - Strive_0902的博客 - 程序员宅基地 ---> 网址:  https://www.sogou.com/link?url=DOb0bgH2eKh1ibpaMGjuy5HIOU4b4ewVr6nbyIArcFNomuBEhdSpHkUUZED5fr2OrMGg0ewj2kCt7zahKn5a3g..
网站: python 3.0教程学习笔记 - 神龙天兵 - 博客园---------------- ---> 网址:  https://www.sogou.com/link?url=hedJjaC291P3yGwc7N55kLSc2ls_Ks2xLeaeq-IoCGuXJTKHHmSxRWgqD20BJjDWri2jTBr9OJ8.

搜索到 vrwrap 结果  4  条结果

网站: python3.0 变动 - 未来软件 - 程序员宅基地----------------- ---> 网址:  https://www.sogou.com/link?url=hedJjaC291OB0PrGj_c3jEG_60Apk7s6EudbVrhncS2ueKW9M67CaVLpMY1k7wxTEUo4OwsJ_gyt5pUc3zy0dg..
网站: Python与C的简单比较(Python3.0- 哦摩西罗伊 - 博客园------- ---> 网址:  https://www.sogou.com/link?url=DSOYnZeCC_rR_TP93bdO6JmGwDeF3ljhhtj5ORO7jkXtx6iYB8mr57bAp6VRqT6Q
网站: python3.0|python3.0下载_红软基地------------------- ---> 网址:  https://www.sogou.com/link?url=DSOYnZeCC_onOegy0G_Eq-o1Ntcxsvv8nbIBfsnkq3TTO13urmeXqg..
网站: Python 3.02.0的用法区别_百度文库--------------------- ---> 网址:  https://www.sogou.com/link?url=DSOYnZeCC_owkDvmYG0gMz-JrNZwwuWK__oOkJ1BlvevVrbe_62OUGizuIlRy7YXIhC7QJXFAaeuLaNMGv04nw..
PS C:\Users\Administrator\Desktop\tmp>

三、将上述每个搜索结果前3条打开浏览器,搜索一页(10条结果)

#! python3
# -*- coding: utf-8 -*-

# 搜索 python3.0 的搜狗搜索网址为:
# https://www.sogou.com/web?query=python3.0

import requests         # 请求网页
import sys, webbrowser  # 打开浏览器
import bs4              # 解析网页

def sougou_get(url="", page=3):
    
    for page_num in range(page):
        # Step 1: 获取命令行参数,拼凑url链接,并请求查找页面
        #url_req = 'https://www.baidu.com/s?wd='+' '.join(sys.argv[1:])
        url_req = 'https://www.sogou.com/web?query='+url+"&page=%d"%(page_num+1)

        print('\n==================================================')
        print('搜索第%s页结果 ... url = '%(page_num + 1) ,  url_req)
        res = requests.get(url_req)
        #res.raise_for_status()

        # Step 2: 使用查找到的html网页 创建一个beautifulsoup对象,
        # print(res.text)
        soup = bs4.BeautifulSoup(res.text,'html.parser')

        linkElems = []
        # Step 3: 查找 class='pt' 中的<a></a> 的搜索结果
        linkElems = soup.select('.pt a')
        print("搜索到 rb 结果 ",len(linkElems)," 条结果\n")

        for i in linkElems:
            link_tmp = i["href"] if str(i["href"]).startswith("http") else "https://www.sogou.com"+i["href"]
            print("网站:", i.getText().ljust(45,'-'),"---> 网址: ",link_tmp)

        # Step 4: 将每个链接打开前3个网页
        num_open= min(3, len(linkElems))
        for num in range(num_open):
            link_tmp = linkElems[num]["href"] if str(linkElems[num]["href"]).startswith("http") else "https://www.sogou.com"+linkElems[num]["href"]
            webbrowser.open(link_tmp)


        # Step 5: 查找 class='vrTitle' 中的<a></a> 的搜索结果
        linkElems = soup.select('.vrTitle a')
        print("\n搜索到 vrwrap 结果 ",len(linkElems)," 条结果\n")

        for i in linkElems:
            link_tmp = i["href"] if str(i["href"]).startswith("http") else "https://www.sogou.com"+i["href"]
            print("网站:", i.getText().ljust(45,'-'),"---> 网址: ",link_tmp)

        # Step 6: 将每个链接打开前3个网页
        num_open= min(3, len(linkElems))
        for num in range(num_open):
            link_tmp = linkElems[num]["href"] if str(linkElems[num]["href"]).startswith("http") else "https://www.sogou.com"+linkElems[num]["href"]
            webbrowser.open(link_tmp)


sougou_get( ' '.join(sys.argv[1:]) ,1)

执行结果为:

PS C:\Users\Administrator\Desktop\tmp> python .\auto_search.py  python3.0
==================================================
搜索第1页结果 ... url =  https://www.sogou.com/web?query=python3.0&page=1
搜索到 rb 结果  7  条结果

网站: Python3.0 - Python Wiki---------------------- ---> 网址:  https://www.sogou.com/link?url=hedJjaC291PKQBwaC1FcWS2wiAdA0Gor3LlWDN5U--JfryscPRs0Sw..
网站: 在windows64位上安装Python3.0 - 目目分分 - 博客园--------- ---> 网址:  https://www.sogou.com/link?url=hedJjaC291P3yGwc7N55kLSc2ls_Ks2xLMDyZK-RVJ-hWnWPJtCp0ROuHdbcy2wUreaVHN88tHY.
网站: Python Release Python 3.0.1 | Python.org----- ---> 网址:  https://www.sogou.com/link?url=hedJjaC291PRFx54Ckm5K4MetfirSY1MLDRArjCgPAEmrGYwjch1pbF5db3NtiNy
网站: Python 3.0 Release | Python.org-------------- ---> 网址:  https://www.sogou.com/link?url=DSOYnZeCC_pLGCR3azjgxPVsh3WMtN37_1YcStwsExHjJ9-jkpX9jUGbqV0FogTt
网站: Python下载_搜狗下载-------------------------------- ---> 网址:  https://www.sogou.com/link?url=MKQkp13LDfVvQR6BSdpQCmRFzFBIhMTsEEAxK7uWobVQxeJp2-CQQXE0qVFJk7lNKXHd7soLnoZ60y4KXksSvlfKiIQb9R9q
网站: Python3.0 - sinat_22498107的博客 - 程序员宅基地------- ---> 网址:  https://www.sogou.com/link?url=hedJjaC291OB0PrGj_c3jKSZxqzPiqwDKHDpVDgF5ybdEK-_IbtQXXDso8qj4KMH1-5gNUGACsBk39GhCbggGA..
网站: Python 3.0 抢“鲜”体验 - 赖勇浩的编程私伙局 - 程序员宅基地------- ---> 网址:  https://www.sogou.com/link?url=DOb0bgH2eKh1ibpaMGjuyzPrjOiQqSQBsSCsJKb2ZwHe79cTr2raFxv7EW1NzxmH6K5EogIA4E2THtqkTShcUw..

搜索到 vrwrap 结果  3  条结果
网站: Python3 教程 | 菜鸟教程---------------------------- ---> 网址:  https://www.sogou.com/link?url=DSOYnZeCC_psXFayQllNlpRsisbdOH41YnK5ET5CooPSbwsSRTss_5d6NOWGPiC3tsCnpVGpPpA.
网站: 为什么 Python 3.0 设计成不与 Python 2.X 兼容?主要有哪些地方需要... ---> 网址:  https://www.sogou.com/link?url=hedJjaC291MBtMZVirtXo7CqjI0tE6P9WJaAWBJP7DV4VlMwryysWUWhenQX32SN2qxU2cvGENw.
网站: Python3.0 如何抓取网页 - 刘鑫的专栏 - 程序员宅基地------------ ---> 网址:  https://www.sogou.com/link?url=DOb0bgH2eKh1ibpaMGjuy3BnkLJzOPNPDvvFZrTAppWuSdKpCMIsLiLJzXCSMn21KD7La3wm17g.
PS C:\Users\Administrator\Desktop\tmp>

将rb 和 vrwrap 的搜索结果各自打开了前三条
在这里插入图片描述

四、优化代码,封装函数

#! python3
# -*- coding: utf-8 -*-

# 搜索 python3.0 的搜狗搜索网址为:
# https://www.sogou.com/web?query=python3.0

import requests         # 请求网页
import sys, webbrowser  # 打开浏览器
import bs4              # 解析网页

def soup_compile(soup , str=''):
    linkElems = soup.select( str )
    print("搜索到 rb 结果 ",len(linkElems)," 条结果\n")

    # 依次保存到数据库,或者打印结果  str(i["href"]).startswith("http")
    for i in linkElems:
        link_tmp = i["href"] if i['href'].startswith('http') else "https://www.sogou.com"+i["href"]
        print("网站:", i.getText().ljust(45,'-'),"---> 网址: ",link_tmp)

    #  将每个链接打开前3个网页
    num_open= min(3, len(linkElems))
    for num in range(num_open):
        link_tmp = linkElems[num]["href"] if linkElems[num]["href"].startswith("http") else "https://www.sogou.com"+linkElems[num]["href"]
        webbrowser.open(link_tmp)


def sougou_get(url="", page=3):
    
    for page_num in range(page):
        # Step 1: 获取命令行参数,拼凑url链接,并请求查找页面
        #url_req = 'https://www.baidu.com/s?wd='+' '.join(sys.argv[1:])
        url_req = 'https://www.sogou.com/web?query='+url+"&page=%d"%(page_num+1)

        print('\n==================================================')
        print('搜索第%s页结果 ... url = '%(page_num + 1) ,  url_req)
        res = requests.get(url_req)
        #res.raise_for_status()

        # Step 2: 使用查找到的html网页 创建一个beautifulsoup对象,
        # print(res.text)
        soup = bs4.BeautifulSoup(res.text,'html.parser')

        # Step 3: 查找 class='pt' 中的<a></a> 的搜索结果
        soup_compile(soup, '.pt a')
        # Step 4: 查找 class='vrTitle' 中的<a></a> 的搜索结果
        soup_compile(soup, '.vrTitle a')


sougou_get( ' '.join(sys.argv[1:]) ,1)
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/Ciellee/article/details/88378074

智能推荐

c# 调用c++ lib静态库_c#调用lib-程序员宅基地

文章浏览阅读2w次,点赞7次,收藏51次。四个步骤1.创建C++ Win32项目动态库dll 2.在Win32项目动态库中添加 外部依赖项 lib头文件和lib库3.导出C接口4.c#调用c++动态库开始你的表演...①创建一个空白的解决方案,在解决方案中添加 Visual C++ , Win32 项目空白解决方案的创建:添加Visual C++ , Win32 项目这......_c#调用lib

deepin/ubuntu安装苹方字体-程序员宅基地

文章浏览阅读4.6k次。苹方字体是苹果系统上的黑体,挺好看的。注重颜值的网站都会使用,例如知乎:font-family: -apple-system, BlinkMacSystemFont, Helvetica Neue, PingFang SC, Microsoft YaHei, Source Han Sans SC, Noto Sans CJK SC, W..._ubuntu pingfang

html表单常见操作汇总_html表单的处理程序有那些-程序员宅基地

文章浏览阅读159次。表单表单概述表单标签表单域按钮控件demo表单标签表单标签基本语法结构<form action="处理数据程序的url地址“ method=”get|post“ name="表单名称”></form><!--action,当提交表单时,向何处发送表单中的数据,地址可以是相对地址也可以是绝对地址--><!--method将表单中的数据传送给服务器处理,get方式直接显示在url地址中,数据可以被缓存,且长度有限制;而post方式数据隐藏传输,_html表单的处理程序有那些

PHP设置谷歌验证器(Google Authenticator)实现操作二步验证_php otp 验证器-程序员宅基地

文章浏览阅读1.2k次。使用说明:开启Google的登陆二步验证(即Google Authenticator服务)后用户登陆时需要输入额外由手机客户端生成的一次性密码。实现Google Authenticator功能需要服务器端和客户端的支持。服务器端负责密钥的生成、验证一次性密码是否正确。客户端记录密钥后生成一次性密码。下载谷歌验证类库文件放到项目合适位置(我这边放在项目Vender下面)https://github.com/PHPGangsta/GoogleAuthenticatorPHP代码示例://引入谷_php otp 验证器

【Python】matplotlib.plot画图横坐标混乱及间隔处理_matplotlib更改横轴间距-程序员宅基地

文章浏览阅读4.3k次,点赞5次,收藏11次。matplotlib.plot画图横坐标混乱及间隔处理_matplotlib更改横轴间距

docker — 容器存储_docker 保存容器-程序员宅基地

文章浏览阅读2.2k次。①Storage driver 处理各镜像层及容器层的处理细节,实现了多层数据的堆叠,为用户 提供了多层数据合并后的统一视图②所有 Storage driver 都使用可堆叠图像层和写时复制(CoW)策略③docker info 命令可查看当系统上的 storage driver主要用于测试目的,不建议用于生成环境。_docker 保存容器

随便推点

网络拓扑结构_网络拓扑csdn-程序员宅基地

文章浏览阅读834次,点赞27次,收藏13次。网络拓扑结构是指计算机网络中各组件(如计算机、服务器、打印机、路由器、交换机等设备)及其连接线路在物理布局或逻辑构型上的排列形式。这种布局不仅描述了设备间的实际物理连接方式,也决定了数据在网络中流动的路径和方式。不同的网络拓扑结构影响着网络的性能、可靠性、可扩展性及管理维护的难易程度。_网络拓扑csdn

JS重写Date函数,兼容IOS系统_date.prototype 将所有 ios-程序员宅基地

文章浏览阅读1.8k次,点赞5次,收藏8次。IOS系统Date的坑要创建一个指定时间的new Date对象时,通常的做法是:new Date("2020-09-21 11:11:00")这行代码在 PC 端和安卓端都是正常的,而在 iOS 端则会提示 Invalid Date 无效日期。在IOS年月日中间的横岗许换成斜杠,也就是new Date("2020/09/21 11:11:00")通常为了兼容IOS的这个坑,需要做一些额外的特殊处理,笔者在开发的时候经常会忘了兼容IOS系统。所以就想试着重写Date函数,一劳永逸,避免每次ne_date.prototype 将所有 ios

如何将EXCEL表导入plsql数据库中-程序员宅基地

文章浏览阅读5.3k次。方法一:用PLSQL Developer工具。 1 在PLSQL Developer的sql window里输入select * from test for update; 2 按F8执行 3 打开锁, 再按一下加号. 鼠标点到第一列的列头,使全列成选中状态,然后粘贴,最后commit提交即可。(前提..._excel导入pl/sql

Git常用命令速查手册-程序员宅基地

文章浏览阅读83次。Git常用命令速查手册1、初始化仓库git init2、将文件添加到仓库git add 文件名 # 将工作区的某个文件添加到暂存区 git add -u # 添加所有被tracked文件中被修改或删除的文件信息到暂存区,不处理untracked的文件git add -A # 添加所有被tracked文件中被修改或删除的文件信息到暂存区,包括untracked的文件...

分享119个ASP.NET源码总有一个是你想要的_千博二手车源码v2023 build 1120-程序员宅基地

文章浏览阅读202次。分享119个ASP.NET源码总有一个是你想要的_千博二手车源码v2023 build 1120

【C++缺省函数】 空类默认产生的6个类成员函数_空类默认产生哪些类成员函数-程序员宅基地

文章浏览阅读1.8k次。版权声明:转载请注明出处 http://blog.csdn.net/irean_lau。目录(?)[+]1、缺省构造函数。2、缺省拷贝构造函数。3、 缺省析构函数。4、缺省赋值运算符。5、缺省取址运算符。6、 缺省取址运算符 const。[cpp] view plain copy_空类默认产生哪些类成员函数

推荐文章

热门文章

相关标签