【python】第一次课作业

   一 

   早就听说过python的大名,浏览过python的主页后,发现对于这门语言的特性的描述无处不在。Python讲求"用一种方法,最好只有一种方法解决一个问题。"这是在以前学习其他的编程语言时从没有提到过的。在C/C++里,一个问题往往有许多种解法,而python因为贯彻了这一原则,使得这门语言非常简洁,便于理解和交流,这就是他的强大之处。

    Python目前是最主流的编程语言之一,而且因为他可以作为一种“胶水语言”,能够轻易地讲程序的某个部分用其他更适合的语言写出来,使得他可以应用的范围十分广泛。Python的优点有很多,初识python只能了解到一些概念性的东西,并不能有很深的体会,希望能在以后的学习中多多了解,才能更好地理解这些特性。

     Python是我们学习过程中绕不开的重要的一部分,但是先前已经有了学习C/C++的基础,再来学习python,将会容易理解很多,学习重点在于了解python的特性给编程带来的巨大便利。

    第一堂课老师向我们展示了一条helllo world的程序,十分惊讶的是,python只用一条短短的语句就完成了,清晰简洁,就是我对python最直观的第一印象了。除此之外,python拥有非常强大的库,这也会使编程变得容易许多。在浏览过python的主页之后,我就下载了python环境,这非常简单,一下子就好了,不像有些需要很多配置,初学者可以尽快地进入python的实战学习。



    了解了很多用python写成的程序,在利用python进行爬虫项目方面有很多实例,我没做过爬虫,对它只有一个大概的了解。可以用一个蜘蛛的例子来了解爬虫,假设一只蜘蛛,它需要把所有的网页都看一遍,就可以从某个地方开始,爬过这里后,这个页面又会引向其他各种链接,继续爬下去,理论上讲就可以都爬完。这就是十分形象的解释爬虫,我也是靠这个比喻理解的。

    使用python语言可以非常简明地实现这个过程,经过看别人的代码,再自己多多练习一些简单的小的爬虫项目,可以熟练掌握。接下来就要关注效率问题,因为能够做到这一过程的代码,如果不经过优化,爬下海量的内容需要的时间太多了,这里也已经有了判重做法。当这块问题解决了之后,最大的障碍出现在机器下载网页的速度,python需要使用多线程,实现集群化抓取。最后依旧还有许多的后续处理,比如有效地信息抽取,及时更新等。

    要实现上述所有需要大量知识的积累,繁复的练习,和不断地更新。对于我这种刚刚接触python来说,短期内实现它简直是天方夜谭,但是想法是要有的。比如,可以希望用python驱动浏览器采集网页数据。我了解到主要步骤为创建scrapy爬虫项目simpleSpider;导入API模块;创建SimpleSpider爬虫类;启动爬虫;输出文件。希望经过高级编程技术这门课程的学习,可以逐步了解,掌握python语言,并用它实现目标程序。


猜你喜欢

转载自blog.csdn.net/karroyzgj/article/details/79479162