通知设置 新通知
SQLAlchemy python数据库实战 【勘误与电子书pdf下载】
马化云 发表了文章 • 0 个评论 • 1489 次浏览 • 2022-10-10 23:56
勘误:
P64 页:
backref = backref('orders',order_by=id) 应该改为 : backref = backref('orders',order_by=order_id)
P68页:
cookie= relationship('Cookie',uselist=False,order_by=id) 应该改为 : cookie= relationship('Cookie',uselist=False,order_by=order_id)
总体来说,动物书还是不错的。
需要pdf电子书的朋友,可以关注下面公众号,
后台回复:
SQLAlchemy python数据库实战
获取电子书下载链接。
查看全部
勘误:
P64 页:
backref = backref('orders',order_by=id) 应该改为 : backref = backref('orders',order_by=order_id)
P68页:
cookie= relationship('Cookie',uselist=False,order_by=id) 应该改为 : cookie= relationship('Cookie',uselist=False,order_by=order_id)
总体来说,动物书还是不错的。
需要pdf电子书的朋友,可以关注下面公众号,
后台回复:
SQLAlchemy python数据库实战
获取电子书下载链接。
python异步编程实战 基于AIO的全栈开发技术 勘误
李魔佛 发表了文章 • 0 个评论 • 1729 次浏览 • 2022-01-10 12:45
是一本用心写的好书。
不过也存在一些纰漏(个人认为的);
定期更新,看到哪更新到哪
P11 : 最后一行的pool 应该是线程池 应该改为进程池。
P35: 执行的docker 命令: docker-compose up -d -d前面有一个空格
持续更新
查看全部
是一本用心写的好书。
不过也存在一些纰漏(个人认为的);
定期更新,看到哪更新到哪
P11 : 最后一行的pool 应该是线程池 应该改为进程池。
P35: 执行的docker 命令: docker-compose up -d -d前面有一个空格
持续更新
可转债 攻守 读后感
绫波丽 发表了文章 • 0 个评论 • 2000 次浏览 • 2021-08-27 03:13
大部分是拿企业的可转债发行公告的内容贴上去的。 或者拿饕餮海在雪球上的回复。
评分 1/5. 满分5分的话,得分为1分。 不推荐。
我读的是PDF电子书
PS: 原来饕餮海是一名医生。也很难得,去年疫情的情况下,居然还能抽空写出一本书,不过也可以知道,如此仓促下写的书质量实在不行的。
查看全部
大部分是拿企业的可转债发行公告的内容贴上去的。 或者拿饕餮海在雪球上的回复。
评分 1/5. 满分5分的话,得分为1分。 不推荐。
我读的是PDF电子书
PS: 原来饕餮海是一名医生。也很难得,去年疫情的情况下,居然还能抽空写出一本书,不过也可以知道,如此仓促下写的书质量实在不行的。
etf全球投资指南 PDF电子书 高清完整版 读后感 & 电子书下载
绫波丽 发表了文章 • 0 个评论 • 2658 次浏览 • 2021-06-18 16:33
1. 原有有做空A股的ETF
2. 投资不同国家的ETF的方式。前提需要有一个美股账号。 这个国内开通也很方便的,就入金的时候有点麻烦。
PDF word高清版
下载地址:关注微信公众:
后台回复:
etf全球投资指南
即可
查看全部
霍华德 马斯克 周期 mobi kindle电子书下载
李魔佛 发表了文章 • 0 个评论 • 3433 次浏览 • 2021-01-05 18:13
python并行编程手册 勘误
李魔佛 发表了文章 • 0 个评论 • 2632 次浏览 • 2019-07-28 17:06
65页的进程创建, p.join() 不能写到循环里面,不然的话会阻塞下一次进程的创建,因为下一次进程要卡在join这里。
可以改成这样的 p0 = multiprocessing.Process(name=str(0), target=foo, args=(0,))
p0.start()
p1 = multiprocessing.Process(name=str(1), target=foo, args=(1,))
p1.start()
p2 = multiprocessing.Process(name=str(2), target=foo, args=(2,))
p2.start()
p3 = multiprocessing.Process(name=str(3), target=foo, args=(3,))
p3.start()
p4 = multiprocessing.Process(name=str(4), target=foo, args=(4,))
p4.start()
p5 = multiprocessing.Process(name=str(5), target=foo, args=(5,))
p5.start()
p0.join()
p1.join()
p2.join()
p3.join()
p4.join()
p5.join()
而且后面发现,整本书都是有这个问题的。 查看全部
65页的进程创建, p.join() 不能写到循环里面,不然的话会阻塞下一次进程的创建,因为下一次进程要卡在join这里。
可以改成这样的
p0 = multiprocessing.Process(name=str(0), target=foo, args=(0,))
p0.start()
p1 = multiprocessing.Process(name=str(1), target=foo, args=(1,))
p1.start()
p2 = multiprocessing.Process(name=str(2), target=foo, args=(2,))
p2.start()
p3 = multiprocessing.Process(name=str(3), target=foo, args=(3,))
p3.start()
p4 = multiprocessing.Process(name=str(4), target=foo, args=(4,))
p4.start()
p5 = multiprocessing.Process(name=str(5), target=foo, args=(5,))
p5.start()
p0.join()
p1.join()
p2.join()
p3.join()
p4.join()
p5.join()
而且后面发现,整本书都是有这个问题的。
kindle使用率低
liwanqiang 回复了问题 • 4 人关注 • 4 个回复 • 4416 次浏览 • 2019-07-25 17:49
《pythno金融实战》 读后感与勘误
李魔佛 发表了文章 • 0 个评论 • 2815 次浏览 • 2019-02-16 19:23
对于没有一定金融知识的程序员来说,也许是一本天书,专有名词特别多,而书中也没做详细的解释。
主要是书中代码注释太少,看起来很吃力。
不推荐。
勘误:
P165
最后一行应该是卖出IBM的股票
P181
公式 8-27 应该为 y=3+2x**2 (错的太离谱)
PS:这本书不是老外写的,是一个中国人写的,封面上居然写着译本。 查看全部
对于没有一定金融知识的程序员来说,也许是一本天书,专有名词特别多,而书中也没做详细的解释。
主要是书中代码注释太少,看起来很吃力。
不推荐。
勘误:
P165
最后一行应该是卖出IBM的股票
P181
公式 8-27 应该为 y=3+2x**2 (错的太离谱)
PS:这本书不是老外写的,是一个中国人写的,封面上居然写着译本。
python数据爬取技术与实战手册 读后感
李魔佛 发表了文章 • 0 个评论 • 3350 次浏览 • 2019-01-14 08:01
实话实说,质量不行。 最基本的代码排版都有很大问题(缩进,注释,命名规范等等),代码明显没有按照PEP8规范。
比如这里的第16行代码 ,注释和代码不相符。
这里根本是2行代码,然后排版没有换行。
而爬虫的代码也过于简单,缺乏注释,不推荐大家去看。 查看全部
NLTK基础教程 用nltk和python库构建机器学习应用 笔记与勘误
李魔佛 发表了文章 • 0 个评论 • 3139 次浏览 • 2018-11-13 13:55
1. 第6页:
lst[0:2]
这个应该是list的前2位,不是前3位。(不应该啊,这么基础的都会错)
输出是1,2
2. 第25页
wlem.lemmatize('ate') 改为
wlem.lemmatize('ate','v’)
需要手工添加一个动词v,才能够识别到词性的原型。
查看全部
零起点python机器学习快速入门 读后感
李魔佛 发表了文章 • 0 个评论 • 3201 次浏览 • 2018-10-15 09:24
没想到出书还能够出成这个样子的。书的内容如果压缩一下,估计也就30-40页的内容,因为大部分都是不断的重复垃圾代码。
像import库,代码作者等信息,居然可以占了一页,关键是,这些无用的信息居然还在每个项目中都重复出现。
核心代码就没几句,大部分是输出信息,看起来书本大部分内容都是一样的,只是输出的具体内容不一样。
通篇都是输出 print (df.tail()) 这种格式的。
说实在,大部分内容都是在网上抄袭sklearn官网的,图也是截取官网的。很无趣的一本书,还好是在图书馆借的,花了2小时左右就把书看完了。
想看的真心建议不要买了。上几页样本让大家体验一下。
上面是不同的页,但是内容却无比的相似。
还有代码第一次见这么奇葩的,一行里面写几句python语句;
对训练结果集不做任何的归一化处理。
查看全部
这是第二次读零起点系列的书,这个系列的书没有最烂,只有更烂。
没想到出书还能够出成这个样子的。书的内容如果压缩一下,估计也就30-40页的内容,因为大部分都是不断的重复垃圾代码。
像import库,代码作者等信息,居然可以占了一页,关键是,这些无用的信息居然还在每个项目中都重复出现。
核心代码就没几句,大部分是输出信息,看起来书本大部分内容都是一样的,只是输出的具体内容不一样。
通篇都是输出 print (df.tail()) 这种格式的。
说实在,大部分内容都是在网上抄袭sklearn官网的,图也是截取官网的。很无趣的一本书,还好是在图书馆借的,花了2小时左右就把书看完了。
想看的真心建议不要买了。上几页样本让大家体验一下。
上面是不同的页,但是内容却无比的相似。
还有代码第一次见这么奇葩的,一行里面写几句python语句;
对训练结果集不做任何的归一化处理。
[读后笔记] python网络爬虫实战 (李松涛)
李魔佛 发表了文章 • 0 个评论 • 3658 次浏览 • 2017-12-14 11:28
前面4章是基础的python知识,有基础的同学可以略过。
scrapy爬虫部分,用了实例给大家说明scrapy的用法,不过如果之前没用过scrapy的话,需要慢慢上机敲打代码。
其实书中的例子都是很简单的例子,基本没什么反爬的限制,书中一句话说的非常赞同,用scrapy写爬虫,就是做填空题,而用urllib2写爬虫,就是作文题,可以自由发挥。
书中没有用更为方便的requests库。 内容搜索用的最多的是beatifulsoup, 对于xpah或者lxml介绍的比较少。 因为scrapy自带的response就是可以直接用xpath,更为方便。
对于scrapy的中间和pipeline的使用了一个例子,也是比较简单的例子。
书中没有对验证码,分布式等流行的反爬进行讲解,应该适合爬虫入门的同学去看吧。
书中一点很好的就是代码都非常规范,而且即使是写作文的使用urllib2,也有意模仿scrapy的框架去写, 需要抓取的数据 独立一个类,类似于scrapy的item,数据处理用的也是叫pipleline的方法。
这样写的好处就是, 每个模块的功能都一目了然,看完第一个例子的类和函数定义,后面的例子都是大同小异,可以加快读者的阅读速度,非常赞。(这一点以后自己要学习,增加代码的可复用性)
很多页面url现在已经过期了,再次运行作者的源码会返回很多404的结果。
失效的项目:
金逸影城
天气预报
获取代理:http://proxy360.com
本书的一些错误的地方:
1. 获取金逸影城的spider中,所有关于movie的拼写都拼错为moive了。这个属于英语错误。
2. 在testProxy.py 代码中, 由于在同一个类中,一直在产生线程,最后导致线程过多,不能再产生线程。程序会中途退出。
File "C:\Python27\lib\threading.py", line 736, in start
_start_new_thread(self.__bootstrap, ())
thread.error: can't start new thread
可以修改成独立函数的形式,而不是类函数。
待续。 查看全部
用了大概一个早上的时间,就把这本书看完了。
前面4章是基础的python知识,有基础的同学可以略过。
scrapy爬虫部分,用了实例给大家说明scrapy的用法,不过如果之前没用过scrapy的话,需要慢慢上机敲打代码。
其实书中的例子都是很简单的例子,基本没什么反爬的限制,书中一句话说的非常赞同,用scrapy写爬虫,就是做填空题,而用urllib2写爬虫,就是作文题,可以自由发挥。
书中没有用更为方便的requests库。 内容搜索用的最多的是beatifulsoup, 对于xpah或者lxml介绍的比较少。 因为scrapy自带的response就是可以直接用xpath,更为方便。
对于scrapy的中间和pipeline的使用了一个例子,也是比较简单的例子。
书中没有对验证码,分布式等流行的反爬进行讲解,应该适合爬虫入门的同学去看吧。
书中一点很好的就是代码都非常规范,而且即使是写作文的使用urllib2,也有意模仿scrapy的框架去写, 需要抓取的数据 独立一个类,类似于scrapy的item,数据处理用的也是叫pipleline的方法。
这样写的好处就是, 每个模块的功能都一目了然,看完第一个例子的类和函数定义,后面的例子都是大同小异,可以加快读者的阅读速度,非常赞。(这一点以后自己要学习,增加代码的可复用性)
很多页面url现在已经过期了,再次运行作者的源码会返回很多404的结果。
失效的项目:
金逸影城
天气预报
获取代理:http://proxy360.com
本书的一些错误的地方:
1. 获取金逸影城的spider中,所有关于movie的拼写都拼错为moive了。这个属于英语错误。
2. 在testProxy.py 代码中, 由于在同一个类中,一直在产生线程,最后导致线程过多,不能再产生线程。程序会中途退出。
File "C:\Python27\lib\threading.py", line 736, in start
_start_new_thread(self.__bootstrap, ())
thread.error: can't start new thread
可以修改成独立函数的形式,而不是类函数。
待续。