21春南开《网络爬虫与信息提取》在线作业百分

所属学校:南开大学 科目:网络爬虫与信息提取 2021-04-28 13:18:07 在线 南开 爬虫 作业 百分
21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《网络爬虫与信息提取》在线作业
1.[单选题] 通常使用()工具来模拟浏览器进行爬虫请求
答案资料下载,请参考帮助中心说明
    A.Selenium
    B.Chrome
    C.ChromeDriver
    D.WebDriver
    答:——A——
2.[单选题] 下面代码一共执行循环多少次():
for i in range(10):
    print(i ** i)
    A.9
    B.10
    C.11#0
    答:——B——
3.[单选题] Redis是()数据库
    A.关系数据库
    B.键值数据库
    C.列存数据库
    D.图数据库
    答:——B——
4.[单选题] Python中跳过本次循环应用关键字()
    A.break
    B.continue
    C.exit
    D.return
    答:————
5.[单选题] 打码平台一般通过()识别验证码。
    A.人工识别
    B.机器学习识别
    C.光学字符识别
    D.深度学习识别
    答:————
6.[单选题] PyMongo中逻辑查询表示等于的符号是()
    A.$gt
    B.$lt
    C.$eq$$ne
    答:————
7.[单选题] 带上通过Chrome浏览器从评论页面复制而来的()再发起请求,可以减少爬虫被网站封锁的概率
    A.Cookie
    B.Html
    C.Headers
    D.CSS
    答:————
8.[单选题] Python中以下哪个容器里的元素不能重复()    更多答案进 ap5u.com 东财 q76129 6021
    A.列表
    B.元组
    C.字典
    D.集合
    答:————
9.[单选题] Redis中往集合中读数据,使用关键字()
    A.pop
    B.spop
    C.lpop
    D.range
    答:————
10.[单选题] Redis是一个开源的使用()语言编写
    A.ANSI C
    B.C++
    C.JAVA
    D.Python
    答:————
11.[单选题] 可以通过()绕过网站登录。
    A.session
    B.cookies
    C.moonpies
    D.localstorage
    答:————
12.[单选题] 使用了RedisSpider作为爬虫的父类以后,爬虫会直接监控()中的数据,并不读取start_urls中的数据。
    A.Redis
    B.RedisSpider
    C.Spider
    D.MongoDB
    答:————
13.[单选题] HTTP常用状态码表明服务器上没有请求的资源的是()
    A.500
    B.503
    C.403
    D.404
    答:————
14.[单选题] Redis中从集合中查看有多少个值,用关键字()
    A.scard
    B.card
    C.count
    D.distinct
    答:————
15.[单选题] 采用以下()技术可以实现异步加载
    A.HTML
    B.AJAX
    C.CSS
    D.HTTP
    答:————
16.[单选题] 当爬虫创建好了之后,可以使用"scrapy()" 命令运行爬虫。
    A.startup
    B.starwar
    C.drawl
    D.crawl
    答:————
17.[单选题] 使用UI Automatorr输入文字的操作是得到相应控件后使用命令()
    A.settext
    B.set
    C.set_text
    D.text
    答:————
18.[单选题] 要使用Python来操作UI Automator从而控制手机,需要安装一个第三方库()
    A.uiautomator
    B.automator
    C.ui_automator
    D.pyautomator
    答:————
19.[单选题] 使用xpath方法的返回类型是()
    A.列表
    B.元组
    C.字典
    D.集合
    答:————
20.[单选题] Python中列表可以用()方法在末尾添加元素
    A.add
    B.append
    C.plus
    D.+
    答:————
21.[多选题] Redis中的值可以支持()
    A.列表
    B.哈希
    C.集合
    D.有序集合
    答:————
22.[多选题] 以下哪些方法属于Python写CSV文件的方法()
    A.writeheaders
    B.writeheader
    C.writerrows
    D.writerow
    答:————
23.[多选题] 下列关于mitmproxy的使用说法正确的是()
    A.mitmproxy的端口为8080端口。
    B.设置好代理以后,在手机上打开一个App或者打开一个网页,可以看到mitmproxy上面有数据滚动。
    C.用鼠标在终端窗口上单击其中的任意一个请求,可以显示这个数据包的详情信息。
    D.如果要访问HTTPS网站,还需要安装mitmproxy的证书
    答:————
24.[多选题] 如果爬虫爬取的是商业网站,并且目标网站使用了反爬虫机制,那么强行突破反爬虫机制可能构成()
    A.非法侵入计算机系统罪
    B.非法获取计算机信息系统数据罪
    C.非法获取计算机数据罪
    D.非法获取系统罪
    答:————
25.[多选题] Python中一个函数可以有()个return语句
    A.0
    B.1
    C.多个
    D.2
    答:————
26.[多选题] HTTP常用状态码表明表明服务器本身发生错误的有()
    A.403
    B.404
    C.500
    D.503
    答:————
27.[多选题] 如果目标网站有反爬虫声明,那么对方在被爬虫爬取以后,可以根据()来起诉使用爬虫的公司
    A.服务器日志
    B.数据库日志记录
    C.程序日志记录
    D.服务器监控
    答:————
28.[多选题] 常用的会话跟踪技术是
    A.session
    B.cookies
    C.moonpies
    D.localstorage
    答:————
29.[多选题] Python中()与元组由类似的数据读取方式
    A.字符串
    B.列表
    C.字典
    D.集合
    答:————
30.[多选题] cookies的缺点是
    A.实现自动登录
    B.跟踪用户状态
    C.http中明文传输
    D.增加http请求的流量
    答:————
31.[判断题] Python中列表生成以后还可以往里面继续添加数据,也可以从里面删除数据;
    A.对
    B.错
    答:————
32.[判断题] Redis的列表是一个单向队列
    A.对
    B.错
    答:————
33.[判断题] requests中get请求方法的使用为requests.get('网址', data=data)
    A.对
    B.错
    答:————
34.[判断题] scrapy与selenium结合可以实现直接处理需要异步加载的页面
    A.对
    B.错
    答:————
35.[判断题] 为了在安卓手机上安装证书,需要先发送证书到手机里面。在Charles中选择“Help”-“SSL Proxying”-“Save Charles Root Certificate”命令,可以将Charles的证书保存到计算机桌面。
    A.对
    B.错
    答:————
36.[判断题] XPath提取出来的内容是一个SelectorList对象,它的第0个元素就是网页的源代码。
    A.对
    B.错
    答:————
37.[判断题] 当Charles抓包以后,在Mac OS系统下可以按Command+F组合键,在Windows系统下按Ctrl+F组合键打开Charles进行搜索
    A.对
    B.错
    答:————
38.[判断题] Python中直接对浮点数进行计算有print(0.1+0.2),则结果为0.3
    A.对
    B.错
    答:————
39.[判断题] 在对XPath返回的对象再次执行XPath的时候,子XPath开头需要添加斜线
    A.对
    B.错
    答:————
40.[判断题] Python中写CSV文件的writerows方法参数为字典类型
    A.对
    B.错
    答:————
41.[判断题] 网站返回的Headers中经常有Cookies,可以用mitmdump脚本使用print函数把Cookies打印出来。
    A.对
    B.错
    答:————
42.[判断题] 在安装Scarpy的依赖库时,由于Visual C++ Build Tools的安装速度很慢,为了节省时间,可以和安装Twisted同时进行
    A.对
    B.错
    答:————
43.[判断题] Charles和Chrome开发者工具相比,只是多了一个搜索功能。
    A.对
    B.错
    答:————
44.[判断题] Scrapy的工程名字不能使用"scrapy",否则爬虫会无法运行。除此以外工程名不受限制。
    A.对
    B.错
    答:————
45.[判断题] 在发送请求时需要注意requests提交的请求头不能与浏览器的请求头一致,因为这样才能隐藏好自己达到获取数据的目的
    A.对
    B.错
    答:————
46.[判断题] Cookies一般包含在请求头Headers中
    A.对
    B.错
    答:————
47.[判断题] Python中相比于findall方法,search方法对于从超级大的文本里面只找第1个数据特别有用,可以大大提高程序的运行效率。
    A.对
    B.错
    答:————
48.[判断题] 当使用Scarpy创建爬虫时,当爬取网易云音乐首页信息时,scrapy genspider的第二个参数直接输入"163.com"就可以了
    A.对
    B.错
    答:————
49.[判断题] chrome开发者工具没法对数据进行搜索。如果想知道一个特定的异步加载内容来自哪个请求,必须在“Network”选项卡里面一个请求一个请求地进行查看.
    A.对
    B.错
    答:————
50.[判断题] 插入数据时,MongoDB会自动添加一列“_id”,也就是自增ID,每次自动加1
    A.对
    B.错
    答:————

版权声明

声明:有的资源均来自网络转载,版权归原作者所有,如有侵犯到您的权益 请联系本站我们将配合处理!

分享: