交流QQ群:491229003[IOS交流群] / 491310686[ReactNavite交流群]

本站处于开发中,有不妥的地方请及时与我本人联系

python的 str 和 unicode

如果你不知道变量是啥类型的,可以像下面这样操作>>> isinstance(u'中文', unicode) True >>> isinstance('中文', unicode) False >>> isinstance('中文', str) True >>> isinstance(u'中文', str) False str与unicode的转换很简单简单原则:不要对str使用encode,不要对unicode使用decode搞明白要处理的是str还是unicode,...

Package name does not correspond to the file path - IntelliJ 解决方案

在使用IntelliJ做java测试的时候,我不希望我会用到多么完善的框架,因为就只是类似一个工厂方法模式的测试,直接就创建了java文件,代码里面使用了package这样的方法,结果运行的时候,发现我的sdk没有配置,于是开始配置,配置完之后发现一个问题,文件中package的地方都提示一个红色波浪线在下面,并且提示的信息类似是这样的Package name does not correspond to the file...

rails 初始化 项目的问题

出现的问题大概就是这样的Gem::RemoteFetcher::FetchError: Errno::ECONNRESET: Connection reset by peer - SSL_connect我已经将gem的源设置为taobao的源,但是初始化的结果确实用了本源解决办法是bundle config mirror.https://rubygems.org...

Scrapy Spider分享

代码片段如下:class MySpider(BaseSpider):     name = 'myspider'     start_urls = (         'http://example.com/page1',         'http://example.com/page2',         )     def parse(self, response):         # collect `item_urls`         for item_url in...

LEK[Logstash + Elasticsearch + Kibana] 故障一

今早遇到如下几个问题:"Courier Fetch: 30 of 60 shards failed.""Data too large, data for [time] would be larger than limit"经过Stackoverflow查看到如下几个方案针对第一个问题,执行如下的请求,大概的意思就是说,清理缓存的意思吧,试了一下果然有效了。curl --user es_admin:qeeniao1234...

scrapy setuptools 如何处理静态文件的打包

这里主要是因为涉及到了scrapyd的一个客户端的工具scrapyd-client,很容易的就可以帮助我们去部署一个scrapy项目此次遇到的问题是,我的项目中需要用到一个静态的文件,但是默认的打包方式,并没有帮我把静态文件打包到egg里面去,经过查询,是因为默认的配置文件并没有做相关的配置,于是修改了配置文件加入了下面的代码:package_data = {     '': ['*.txt'], },zip_safe=False,整个setup.py文件看起来的话就是这样的:from...

react-native 学习(一)

react-native的安装首先确定自己是否安装了Node,如果没有安装Node的话,就需要安装node了,因为是依赖node的。安装推荐方式:nvmnvm是node的一个多版本管理器,方便管理node的版本安装和更新,本人觉得超级好用,推荐之。nvm的安装很简单,去github上了解一下就好了,这里给个链接:https://github.com/creationix/nvm安装完就可以安装node了,使用nvm安装node很简单nvm install...

scrapy 1.0.3版本 Selenium Phantomjs Downloader Middleware

一直想找的这个东西Middleware,找了很久,有的是一个过期的,有的是要弹出什么框的,这里给scrapy最新版本的解决方案。此方案排除了几个问题:Message: 'Can not connect to GhostDriver'对于此问题像下面这样操作就好了:driver = webdriver.PhantomJS(port=port,                              desired_capabilities={                            ...

scrapy递归抓取网页数据

在使用scrapy抓取网页的数据的过程中,我们会遇到一个问题就是,如何来抓取分页,有时候又不能一下子把所有的分页都获取过来。这里的解决问题的思路是,获取每个当前抓取页面的下一页链接,并将链接加入要抓取的url列表中,如下是实例代码 def parse(self, response):         items = []         validurls = []         newurls = response.xpath(            ...