一日二技:MongoDB与 Scrapy 的小技巧各一个

网友投稿 546 2023-04-10

本站部分文章、图片属于网络上可搜索到的公开信息,均用于学习和交流用途,不能代表睿象云的观点、立场或意见。我们接受网民的监督,如发现任何违法内容或侵犯了您的权益,请第一时间联系小编邮箱jiasou666@gmail.com 处理。

一日二技:MongoDB与 Scrapy 的小技巧各一个

今天我们来讲两个小技巧。

如何更新 MongoDB 中的一个数组

我们知道,如果想给 MongoDB 的一条文档增加一个字段,我们可以使用update_one方法:

import pymongo  handler = pymongo.MongoClient().db.col handler.update_one({'name': 'kingname'}, {'$set': {'新的字段名': '新的字段值'}})

但如果有一个字段是数组,我想向这个数组里面添加一个元素。并且,如果这个元素之前就已经在这个数组中了,就什么也不做,只要之前不存在时才添加。

这个时候,我们就可以使用$addToSet操作符来实现这个功能。

这个操作符的语法为:

handler.update_one({'name': 'kingname'}, {'$addToSet': {'字段名': '要插入的元素'}})

我们来看一个例子。

例如对于如图所示的一条文档:

执行代码:

handler.update_one({'name': 'kingname'}, {'$addToSet': {'excellent': 'JavaScript'}})

运行以后,数组excellent变为如下图所示:

如果插入一条已经存在的数据,那么这个数组就不会变化。例如:

handler.update_one({'name': 'kingname'}, {'$addToSet': {'excellent': 'Python'}})

如何使用参数给 Scrapy 爬虫增加属性

在Scrapy 项目中,我们有时候需要在启动爬虫的时候,传入一些参数,从而让一份代码执行不同的逻辑。这个时候,有一个非常方便的方法,就是使用-a参数。它的语法为:

scrapy crawl 爬虫名 -a 参数1 -a 参数2 -a 参数3

那么,传入的这些参数,在爬虫里面怎么使用呢?其实很简单,你不需要做任何额外的配置,直接在爬虫里面通过self.参数名就可以调用了。例如下面这个爬虫:

大家可以看到,PyCharm 给两个属性self.body_name和self.age_from_cmdline标上了黄色的背景,这是因为PyCharm 找不到这两个属性是在哪里定义的。

但没有关系,我们启动 Scrapy 爬虫的时候,使用-a参数传递进去就好了:

scrapy crawl example -a body_name=kingname -a age_from_cmdline=28

运行效果如下图所示:

可以看到,这个接口成功接收到了这两个参数,并且把它显示了出来。

上一篇:wireguardNT:Windows 内核下的高性能 wireguard 实现
下一篇:聊聊SQL中Merge的用法
相关文章

 发表评论

暂时没有评论,来抢沙发吧~