添加链接
link管理
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

原文出处: Cheatsheet – Python & R codes for common Machine Learning Algorithms
在拿破仑•希尔的名著《思考与致富》中讲述了达比的故事:达比经过几年的时间快要挖掘到了金矿,却在离它三英尺的地方离开了!

现在,我不知道这个故事是否真实。但是,我肯定在我的周围有一些跟达比一样的人,这些人认为,不管遇到什么问题, 机器学习的目的就是执行以及使用2 – 3组算法。他们不去尝试更好的算法和技术,因为他们觉得太困难或耗费时间。

像达比一样,他们无疑是在到达最后一步的时候突然消失了!最后,他们放弃机器学习,说计算量非常大、非常困难或者认为自己的模型已经到达优化的临界点——真的是这样吗?

下面这些速查表能让这些“达比”成为机器学习的支持者。这是10个最常用的机器学习算法,这些算法使用了Python和R代码。考虑到机器学习在构建模型中的应用,这些速查表可以很好作为编码指南帮助你学好这些机器学习算法。Good Luck!

PDF版本 1

from:http://colobu.com/2015/11/05/full-cheatsheet-machine-learning-algorithms

Note: this is an expanded version of JonasCz ‘s answer on Stack Overflow here

Essentially, hindering scraping means that you need to make it difficult for scripts and machines to get the wanted data from your website, while not making it difficult for real users and search engines .

Unfortunately this is hard, and you will need to make trade-offs between preventing scraping and degrading the accessibility for real users and search engines.

In order to hinder scraping (also known as Webscraping , Screenscraping , web data mining , web harvesting , or web data extraction ), it helps to know how these scrapers work, and what prevents them from working well, and this is what this answer is about.

Generally, these scraper programs are written in order to extract specific information from your site, such as articles, search results, product details, or in your case, artist and album information. Usually, people scrape websites for specific data, in order to reuse it on their own site (and make money out of your content !), or to build alternative frontends for your site (such as mobile apps), or even just for private research or analysis purposes.

Essentially, there are various types of scraper, and each works differently:

  • Spiders, such as Google’s bot or website copiers like HTtrack , which visit your website, and recursively follow links to other pages in order to get data. These are sometimes used for targeted scraping to get specific data, often in combination with a HTML parser to extract the desired data from each page.
  • Shell scripts: Sometimes, common Unix tools are used for scraping: Wget or Curl to download pages, and Grep (Regex) to extract the desired data, usually using a shell script. These are the simplest kind of scraper, and also the most fragile kind ( Don’t ever try parse HTML with regex ! ). These are thus the easiest kind of scraper to break and screw with.
  • HTML scrapers and parsers, such as ones based on Jsoup , Scrapy , and many others. Similar to shell-script regex based ones, these work by extracting data from your pages based on patterns in your HTML, usually ignoring everything else.So, for example: If your website has a search feature, such a scraper might submit a HTTP request for a search, and then get all the result links and their titles from the results page HTML, sometimes hundreds of times for hundreds of different searches, in order to specifically get only search result links and their titles. These are the most common.
  • Screenscrapers, based on eg. Selenium or PhantomJS , which actually open your website in a real browser, run JavaScript, AJAX, and so on, and then get the desired text from the webpage, usually by:
  • Getting the HTML from the browser after your page has been loaded and JavaScript has run, and then using a HTML parser to extract the desired data or text. These are the most common, and so many of the methods for breaking HTML parsers / scrapers also work here.
  • Taking a screenshot of the rendered pages, and then using OCR to extract the desired text from the screenshot. These are rare, and only dedicated scrapers who really want your data will set this up.
  • Browser-based screenscrapers harder to deal with, as they run scripts, render HTML, and can behave like a real human browsing your site.

  • Webscraping services such as ScrapingHub or Kimono . In fact, there’s people whose job is to figure out how to scrape your site and pull out the content for others to use. These sometimes use large networks of proxies and ever changing IP addresses to get around limits and blocks, so they are especially problematic.Unsurprisingly, professional scraping services are the hardest to deter, but if you make it hard and time-consuming to figure out how to scrape your site, these (and people who pay them to do so) may not be bothered to scrape your website.
  • Embedding your website in other site’s pages with frames , and embedding your site in mobile apps.While not technically scraping, this is also a problem, as mobile apps (Android and iOS) can embed your website, and even inject custom CSS and JavaScript, thus completely changing the appearance of your site, and only showing the desired information, such as the article content itself or the list of search results, and hiding things like headers, footers, or ads.
  • Human copy – and – paste: People will copy and paste your content in order to use it elsewhere. Unfortunately, there’s not much you can do about this.
  • There is a lot overlap between these different kinds of scraper, and many scrapers will behave similarly, even though they use different technologies and methods to get your content.

    This collection of tips are mostly my own ideas, various difficulties that I’ve encountered while writing scrapers, as well as bits of information and ideas from around the interwebs.

    How to prevent scraping

    Some general methods to detect and deter scrapers:

    Monitor your logs & traffic patterns; limit access if you see unusual activity:

    Check your logs regularly, and in case of unusual activity indicative of automated access (scrapers), such as many similar actions from the same IP address, you can block or limit access.

    Specifically, some ideas:

  • Rate limiting: Only allow users (and scrapers) to perform a limited number of actions in a certain time – for example, only allow a few searches per second from any specific IP address or user. This will slow down scrapers, and make them ineffective. You could also show a captcha if actions are completed too fast or faster than a real user would.
  • Detect unusual activity: If you see unusual activity, such as many similar requests from a specific IP address, someone looking at an excessive number of pages or performing an unusual number of searches, you can prevent access, or show a captcha for subsequent requests.
  • Don’t just monitor & rate limit by IP address – use other indicators too: If you do block or rate limit, don’t just do it on a per-IP address basis; you can use other indicators and methods to identify specific users or scrapers. Some indicators which can help you identify specific users / scrapers include:
  • How fast users fill out forms, and where on a button they click;
  • You can gather a lot of information with JavaScript, such as screen size / resolution, timezone, installed fonts, etc; you can use this to identify users.
  • Http headers and their order, especially User-Agent.
  • As an example, if you get many request from a single IP address, all using the same User agent, screen size (determined with JavaScript), and the user (scraper in this case) always clicks on the button in the same way and at regular intervals, it’s probably a screen scraper; and you can temporarily block similar requests (eg. block all requests with that user agent and screen size coming from that particular IP address), and this way you won’t inconvenience real users on that IP address, eg. in case of a shared internet connection.

    You can also take this further, as you can identify similar requests, even if they come from different IP addresses, indicative of distributed scraping (a scraper using a botnet or a network of proxies). If you get a lot of otherwise identical requests, but they come from different IP addresses, you can block. Again, be aware of not inadvertently blocking real users.

    This can be effective against screenscrapers which run JavaScript, as you can get a lot of information from them.

    Related questions on Security Stack Exchange:

  • How to uniquely identify users with the same external IP address? for more details, and
  • Why do people use IP address bans when IP addresses often change? for info on the limits of these methods.
  • Instead of temporarily blocking access, use a Captcha: The simple way to implement rate-limiting would be to temporarily block access for a certain amount of time, however using a Captcha may be better, see the section on Captchas further down.
  • Require registration & login

    Require account creation in order to view your content, if this is feasible for your site. This is a good deterrent for scrapers, but is also a good deterrent for real users.

  • If you require account creation and login, you can accurately track user and scraper actions. This way, you can easily detect when a specific account is being used for scraping, and ban it. Things like rate limiting or detecting abuse (such as a huge number of searches in a short time) become easier, as you can identify specific scrapers instead of just IP addresses.
  • In order to avoid scripts creating many accounts, you should:

  • Require an email address for registration, and verify that email address by sending a link that must be opened in order to activate the account. Allow only one account per email address.
  • Require a captcha to be solved during registration / account creation, again to prevent scripts from creating accounts.
  • Requiring account creation to view content will drive users and search engines away; if you require account creation in order to view an article, users will go elsewhere.

    Block access from cloud hosting and scraping service IP addresses

    Sometimes, scrapers will be run from web hosting services, such as Amazon Web Services or Google app Engine, or VPSes. Limit access to your website (or show a captcha) for requests originating from the IP addresses used by such cloud hosting services. You can also block access from IP addresses used by scraping services.

    Similarly, you can also limit access from IP addresses used by proxy or VPN providers, as scrapers may use such proxy servers to avoid many requests being detected.

    Beware that by blocking access from proxy servers and VPNs, you will negatively affect real users.

    Make your error message nondescript if you do block

    If you do block / limit access, you should ensure that you don’t tell the scraper what caused the block, thereby giving them clues as to how to fix their scraper. So a bad idea would be to show error pages with text like:

  • Too many requests from your IP address, please try again later.
  • Error, User Agent header not present !
  • Instead, show a friendly error message that doesn’t tell the scraper what caused it. Something like this is much better:

  • Sorry, something went wrong. You can contact support via [email protected] , should the problem persist.
  • This is also a lot more user friendly for real users, should they ever see such an error page. You should also consider showing a captcha for subsequent requests instead of a hard block, in case a real user sees the error message, so that you don’t block and thus cause legitimate users to contact you.

    Use Captchas if you suspect that your website is being accessed by a scraper.

    Captchas (“Completely Automated Test to Tell Computers and Humans apart”) are very effective against stopping scrapers. Unfortunately, they are also very effective at irritating users.

    As such, they are useful when you suspect a possible scraper, and want to stop the scraping, without also blocking access in case it isn’t a scraper but a real user. You might want to consider showing a captcha before allowing access to the content if you suspect a scraper.

    Things to be aware of when using Captchas:

  • Don’t roll your own, use something like Google’s reCaptcha : It’s a lot easier than implementing a captcha yourself, it’s more user-friendly than some blurry and warped text solution you might come up with yourself (users often only need to tick a box), and it’s also a lot harder for a scripter to solve than a simple image served from your site
  • Don’t include the solution to the captcha in the HTML markup: I’ve actually seen one website which had the solution for the captcha in the page itself , (although quite well hidden) thus making it pretty useless. Don’t do something like this. Again, use a service like reCaptcha, and you won’t have this kind of problem (if you use it properly).
  • Captchas can be solved in bulk: There are captcha-solving services where actual, low-paid, humans solve captchas in bulk. Again, using reCaptcha is a good idea here, as they have protections (such as the relatively short time the user has in order to solve the captcha). This kind of service is unlikely to by used unless your data is really valuable.
  • Serve your text content as an image

    You can render text into an image server-side, and serve that to be displayed, which will hinder simple scrapers extracting text.

    However, this is bad for screen readers, search engines, performance, and pretty much everything else. It’s also illegal in some places (due to accessibility, eg. the Americans with Disabilities Act), and it’s also easy to circumvent with some OCR, so don’t do it.

    You can do something similar with CSS sprites, but that suffers from the same problems.

    Don’t expose your complete dataset:

    If feasible, don’t provide a way for a script / bot to get all of your dataset. As an example: You have a news site, with lots of individual articles. You could make those articles be only accessible by searching for them via the on site search, and, if you don’t have a list of all the articles on the site and their URLs anywhere, those articles will be only accessible by using the search feature. This means that a script wanting to get all the articles off your site will have to do searches for all possible phrases which may appear in your articles in order to find them all, which will be time-consuming, horribly inefficient, and will hopefully make the scraper give up.

    This will be ineffective if:

  • The bot / script does not want / need the full dataset anyway.
  • Your articles are served from a URL which looks something like example.com/article.php?articleId=12345 . This (and similar things) which will allow scrapers to simply iterate over all the articleId s and request all the articles that way.
  • There are other ways to eventually find all the articles, such as by writing a script to follow links within articles which lead to other articles.
  • Searching for something like “and” or “the” can reveal almost everything, so that is something to be aware of. (You can avoid this by only returning the top 10 or 20 results).
  • You need search engines to find your content.
  • Don’t expose your APIs, endpoints, and similar things:

    Make sure you don’t expose any APIs, even unintentionally. For example, if you are using AJAX or network requests from within Adobe Flash or Java Applets (God forbid!) to load your data it is trivial to look at the network requests from the page and figure out where those requests are going to, and then reverse engineer and use those endpoints in a scraper program. Make sure you obfuscate your endpoints and make them hard for others to use, as described.

    To deter HTML parsers and scrapers:

    Since HTML parsers work by extracting content from pages based on identifiable patterns in the HTML, we can intentionally change those patterns in oder to break these scrapers, or even screw with them. Most of these tips also apply to other scrapers like spiders and screenscrapers too.

    Frequently change your HTML

    Scrapers which process HTML directly do so by extracting contents from specific, identifiable parts of your HTML page. For example: If all pages on your website have a div with an id of article-content , which contains the text of the article, then it is trivial to write a script to visit all the article pages on your site, and extract the content text of the article-content div on each article page, and voilà, the scraper has all the articles from your site in a format that can be reused elsewhere.

    If you change the HTML and the structure of your pages frequently, such scrapers will no longer work.

  • You can frequently change the id’s and classes of elements in your HTML, perhaps even automatically. So, if your div.article-content becomes something like div.a4c36dda13eaf0 , and changes every week, the scraper will work fine initially, but will break after a week. Make sure to change the length of your ids / classes too, otherwise the scraper will use div.[any-14-characters] to find the desired div instead. Beware of other similar holes too..
  • If there is no way to find the desired content from the markup, the scraper will do so from the way the HTML is structured. So, if all your article pages are similar in that every div inside a div which comes after a h1 is the article content, scrapers will get the article content based on that. Again, to break this, you can add / remove extra markup to your HTML, periodically and randomly, eg. adding extra div s or span s. With modern server side HTML processing, this should not be too hard.
  • Things to be aware of:

  • It will be tedious and difficult to implement, maintain, and debug.
  • You will hinder caching. Especially if you change ids or classes of your HTML elements, this will require corresponding changes in your CSS and JavaScript files, which means that every time you change them, they will have to be re-downloaded by the browser. This will result in longer page load times for repeat visitors, and increased server load. If you only change it once a week, it will not be a big problem.
  • Clever scrapers will still be able to get your content by inferring where the actual content is, eg. by knowing that a large single block of text on the page is likely to be the actual article. This makes it possible to still find & extract the desired data from the page. Boilerpipe does exactly this.
  • Essentially, make sure that it is not easy for a script to find the actual, desired content for every similar page.

    See also How to prevent crawlers depending on XPath from getting page contents for details on how this can be implemented in PHP.

    Change your HTML based on the user’s location

    This is sort of similar to the previous tip. If you serve different HTML based on your user’s location / country (determined by IP address), this may break scrapers which are delivered to users. For example, if someone is writing a mobile app which scrapes data from your site, it will work fine initially, but break when it’s actually distributed to users, as those users may be in a different country, and thus get different HTML, which the embedded scraper was not designed to consume.

    Frequently change your HTML, actively screw with the scrapers by doing so !

    An example: You have a search feature on your website, located at example.com/search?query=somesearchquery , which returns the following HTML:

    <div class="search-result">
      <h3 class="search-result-title">Stack Overflow has become the world's most popular programming Q & A website</h3>
      <p class="search-result-excerpt">The website Stack Overflow has now become the most popular programming Q & A website, with 10 million questions and many users, which...</p>
      <a class"search-result-link" href="/stories/stack-overflow-has-become-the-most-popular">Read more</a>
    </div>
    (And so on, lots more identically structured divs with search results)

    As you may have guessed this is easy to scrape: all a scraper needs to do is hit the search URL with a query, and extract the desired data from the returned HTML. In addition to periodically changing the HTML as described above, you could also leave the old markup with the old ids and classes in, hide it with CSS, and fill it with fake data, thereby poisoning the scraper. Here’s how the search results page could be changed:

    <div class="the-real-search-result">
      <h3 class="the-real-search-result-title">Stack Overflow has become the world's most popular programming Q & A website</h3>
      <p class="the-real-search-result-excerpt">The website Stack Overflow has now become the most popular programming Q & A website, with 10 million questions and many users, which...</p>
      <a class"the-real-search-result-link" href="/stories/stack-overflow-has-become-the-most-popular">Read more</a>
    </div>
    <div class="search-result" style="">
      <h3 class="search-result-title">Visit example.com now, for all the latest Stack Overflow related news !</h3>
      <p class="search-result-excerpt">EXAMPLE.COM IS SO AWESOME, VISIT NOW! (Real users of your site will never see this, only the scrapers will.)</p>
      <a class"search-result-link" href="http://example.com/">Visit Now !</a>
    </div>
    (More real search results follow)

    This will mean that scrapers written to extract data from the HTML based on classes or IDs will continue to seemingly work, but they will get fake data or even ads, data which real users will never see, as they’re hidden with CSS.

    Screw with the scraper: Insert fake, invisible honeypot data into your page

    Adding on to the previous example, you can add invisible honeypot items to your HTML to catch scrapers. An example which could be added to the previously described search results page:

    <div class="search-result" style="">
      <h3 class="search-result-title">This search result is here to prevent scraping</h3>
      <p class="search-result-excerpt">If you're a human and see this, please ignore it. If you're a scraper, please click the link below :-)
      Note that clicking the link below will block access to this site for 24 hours.</p>
      <a class"search-result-link" href="/scrapertrap/scrapertrap.php">I'm a scraper !</a>
    </div>
    (The actual, real, search results follow.)

    A scraper written to get all the search results will pick this up, just like any of the other, real search results on the page, and visit the link, looking for the desired content. A real human will never even see it in the first place (due to it being hidden with CSS), and won’t visit the link. A genuine and desirable spider such as Google’s will not visit the link either because you disallowed /scrapertrap/ in your robots.txt (don’t forget this!)

    You can make your scrapertrap.php do something like block access for the IP address that visited it or force a captcha for all subsequent requests from that IP.

  • Don’t forget to disallow your honeypot ( /scrapertrap/ ) in your robots.txt file so that search engine bots don’t fall into it.
  • You can / should combine this with the previous tip of changing your HTML frequently.
  • Change this frequently too, as scrapers will eventually learn to avoid it. Change the honeypot URL and text. Also want to consider changing the inline CSS used for hiding, and use an ID attribute and external CSS instead, as scrapers will learn to avoid anything which has a style attribute with CSS used to hide the content. Also try only enabling it sometimes, so the scraper works initially, but breaks after a while. This also applies to the previous tip.
  • Beware that malicious people can post something like [img]http://yoursite.com/scrapertrap/scrapertrap.php[img] on a forum (or elsewhere), and thus DOS legitimate users when they visit that forum and their browser hits your honeypot URL. Thus, the previous tip of changing the URL is doubly important, and you could also check the Referer.
  • Serve fake and useless data if you detect a scraper

    If you detect what is obviously a scraper, you can serve up fake and useless data; this will corrupt the data the scraper gets from your website. You should also make it impossible to distinguish such fake data from real data, so that scrapers don’t know that they’re being screwed with.

    As an example: if you have a news website; if you detect a scraper, instead of blocking access, just serve up fake, randomly generated articles, and this will poison the data the scraper gets. If you make your faked data or articles indistinguishable from the real thing, you’ll make it hard for scrapers to get what they want, namely the actual, real articles.

    Don’t accept requests if the User Agent is empty / missing

    Often, lazily written scrapers will not send a User Agent header with their request, whereas all browsers as well as search engine spiders will.

    If you get a request where the User Agent header is not present, you can show a captcha, or simply block or limit access. (Or serve fake data as described above, or something else..)

    It’s trivial to spoof, but as a measure against poorly written scrapers it is worth implementing.

    Don’t accept requests if the User Agent is a common scraper one; blacklist ones used by scrapers

    In some cases, scrapers will use a User Agent which no real browser or search engine spider uses, such as:

  • “Mozilla” (Just that, nothing else. I’ve seen a few questions about scraping here, using that. A real browser will never use only that)
  • “Java 1.7.43_u43” (By default, Java’s HttpUrlConnection uses something like this.)
  • “BIZCO EasyScraping Studio 2.0”
  • “wget”, “curl”, “libcurl”,.. (Wget and cURL are sometimes used for basic scraping)
  • If you find that a specific User Agent string is used by scrapers on your site, and it is not used by real browsers or legitimate spiders, you can also add it to your blacklist.

    Check the Referer header

    Adding on to the previous item, you can also check for the Referer (yes, it’s Referer, not Referrer), as lazily written scrapers may not send it, or always send the same thing (sometimes “google.com”). As an example, if the user comes to an article page from a on-site search results page, check that the Referer header is present and points to that search results page.

    Beware that:

  • Real browsers don’t always send it either;
  • It’s trivial to spoof.
  • Again, as an additional measure against poorly written scrapers it may be worth implementing.

    If it doesn’t request assets (CSS, images), it’s not a real browser.

    A real browser will (almost always) request and download assets such as images and CSS. HTML parsers and scrapers won’t as they are only interested in the actual pages and their content.

    You could log requests to your assets, and if you see lots of requests for only the HTML, it may be a scraper.

    Beware that search engine bots, ancient mobile devices, screen readers and misconfigured devices may not request assets either.

    Use and require cookies; use them to track user and scraper actions.

    You can require cookies to be enabled in order to view your website. This will deter inexperienced and newbie scraper writers, however it is easy to for a scraper to send cookies. If you do use and require them, you can track user and scraper actions with them, and thus implement rate-limiting, blocking, or showing captchas on a per-user instead of a per-IP basis.

    For example: when the user performs search, set a unique identifying cookie. When the results pages are viewed, verify that cookie. If the user opens all the search results (you can tell from the cookie), then it’s probably a scraper.

    Using cookies may be ineffective, as scrapers can send the cookies with their requests too, and discard them as needed. You will also prevent access for real users who have cookies disabled, if your site only works with cookies.

    Note that if you use JavaScript to set and retrieve the cookie, you’ll block scrapers which don’t run JavaScript, since they can’t retrieve and send the cookie with their request.

    Use JavaScript + Ajax to load your content

    You could use JavaScript + AJAX to load your content after the page itself loads. This will make the content inaccessible to HTML parsers which do not run JavaScript. This is often an effective deterrent to newbie and inexperienced programmers writing scrapers.

    Be aware of:

  • Using JavaScript to load the actual content will degrade user experience and performance
  • Search engines may not run JavaScript either, thus preventing them from indexing your content. This may not be a problem for search results pages, but may be for other things, such as article pages.
  • A programmer writing a scraper who knows what they’re doing can discover the endpoints where the content is loaded from and use them.
  • Obfuscate your markup, network requests from scripts, and everything else.

    If you use Ajax and JavaScript to load your data, obfuscate the data which is transferred. As an example, you could encode your data on the server (with something as simple as base64 or more complex with multiple layers of obfuscation, bit-shifting, and maybe even encryption), and then decode and display it on the client, after fetching via Ajax. This will mean that someone inspecting network traffic will not immediately see how your page works and loads data, and it will be tougher for someone to directly request request data from your endpoints, as they will have to reverse-engineer your descrambling algorithm.

  • If you do use Ajax for loading the data, you should make it hard to use the endpoints without loading the page first, eg by requiring some session key as a parameter, which you can embed in your JavaScript or your HTML.
  • You can also embed your obfuscated data directly in the initial HTML page and use JavaScript to deobfuscate and display it, which would avoid the extra network requests. Doing this will make it significantly harder to extract the data using a HTML-only parser which does not run JavaScript, as the one writing the scraper will have to reverse engineer your JavaScript (which you should obfuscate too).
  • You might want to change your obfuscation methods regularly, to break scrapers who have figured it out.
  • There are several disadvantages to doing something like this, though:

  • It will be tedious and difficult to implement, maintain, and debug.
  • It will be ineffective against scrapers and screenscrapers which actually run JavaScript and then extract the data . (Most simple HTML parsers don’t run JavaScript though)
  • It will make your site nonfunctional for real users if they have JavaScript disabled.
  • Performance and page-load times will suffer.
  • Non-Technical:

    Your hosting provider may provide bot – and scraper protection:

    For example, CloudFlare provides an anti-bot and anti-scraping protection, which you just need to enable, and so does AWS. There is also mod_evasive, an Apache module which let’s you implement rate-limiting easily.

    Tell people not to scrape, and some will respect it

    You should tell people not to scrape your site, eg. in your conditions or Terms Of Service. Some people will actually respect that, and not scrape data from your website without permission.

    Find a lawyer

    They know how to deal with copyright infringement, and can send a cease-and-desist letter. The DMCA is also helpful in this regard.

    This is the approach Stack Overflow and Stack Exchange uses.

    Make your data available, provide an API:

    This may seem counterproductive, but you could make your data easily available and require attribution and a link back to your site. Maybe even charge $$$ for it..

    Again, Stack Exchange provides an API, but with attribution required.

    Miscellaneous:

  • Find a balance between usability for real users and scraper-proofness: Everything you do will impact user experience negatively in one way or another, so you will need to find compromises.
  • Don’t forget your mobile site and apps: If you have a mobile version of your site, beware that scrapers can also scrape that. If you have a mobile app, that can be screen scraped too, and network traffic can be inspected to figure out the REST endpoints it uses.
  • If you serve a special version of your site for specific browsers, eg. a cut-down version for older versions of Internet Explorer, don’t forget that scrapers can scrape that, too.
  • Use these tips in combination, pick what works best for you.
  • Scrapers can scrape other scrapers: If there is one website which shows content scraped from your website, other scrapers can scrape from that scraper’s website.
  • What’s the most effective way ?

    In my experience of writing scrapers and helping people to write scrapers here on SO, the most effective methods are :

  • Changing the HTML markup frequently
  • Honeypots and fake data
  • Using obfuscated JavaScript, AJAX, and Cookies
  • Rate limiting and scraper detection and subsequent blocking.
  • Further reading:

  • Wikipedia’s article on Web scraping . Many details on the technologies involved and the different types of web scraper, general information on how webscraping is done, as well as a look at the legalities of scraping.
  • from:https://github.com/JonasCz/How-To-Prevent-Scraping/blob/master/README.md

    1、 Unresolved reference issue in PyCharm

    2、 Scrapy error: Spider not Found

    3、 Scrapy数据保存为excel

    4、 Scrapy使用代理

    5、 Headless Browser and scraping – solutions [closed]

    6、 scrapy 抓取动态内容

    7、 利用PyCharm调试Scrapy projects

    crawl stackoverflow_spider(注意:这个是spider文件中name指定的名,不是类名或文件名)

    8、 Passing arguments inside Scrapy spider

    Awesome Python ,这又是一个 Awesome XXX 系列的资源整理,由 vinta 发起和维护。内容包括:Web框架、网络爬虫、网络内容提取、模板引擎、数据库、数据可视化、图片处理、文本处理、自然语言处理、机器学习、日志、代码分析等。

    管理 Python 版本和环境的工具

  • p – 非常简单的交互式 python 版本管理工具。
  • pyenv – 简单的 Python 版本管理工具。
  • Vex – 可以在虚拟环境中执行命令。
  • virtualenv – 创建独立 Python 环境的工具。
  • virtualenvwrapper – virtualenv 的一组扩展。
  • 管理包和依赖的工具。

  • pip – Python 包和依赖关系管理工具。
  • pip-tools – 保证 Python 包依赖关系更新的一组工具。
  • conda – 跨平台,Python 二进制包管理工具。
  • Curdling – 管理 Python 包的命令行工具。
  • wheel – Python 分发的新标准,意在取代 eggs。
  • 本地 PyPI 仓库服务和代理。

  • warehouse – 下一代 PyPI。
  • Warehouse bandersnatch – PyPA 提供的 PyPI 镜像工具。
  • devpi – PyPI 服务和打包/测试/分发工具。
  • localshop – 本地 PyPI 服务(自定义包并且自动对 PyPI 镜像)。
  • 打包为可执行文件以便分发。

  • PyInstaller – 将 Python 程序转换成独立的执行文件(跨平台)。
  • dh-virtualenv – 构建并将 virtualenv 虚拟环境作为一个 Debian 包来发布。
  • Nuitka – 将脚本、模块、包编译成可执行文件或扩展模块。
  • py2app – 将 Python 脚本变为独立软件包(Mac OS X)。
  • py2exe – 将 Python 脚本变为独立软件包(Windows)。
  • pynsist – 一个用来创建 Windows 安装程序的工具,可以在安装程序中打包 Python本身。
  • 将源码编译成软件。

  • buildout – 一个构建系统,从多个组件来创建,组装和部署应用。
  • BitBake – 针对嵌入式 Linux 的类似 make 的构建工具。
  • fabricate – 对任何语言自动找到依赖关系的构建工具。
  • PlatformIO – 多平台命令行构建工具。
  • PyBuilder – 纯 Python 实现的持续化构建工具。
  • SCons – 软件构建工具。
  • 交互式解析器

    交互式 Python 解析器。

  • IPython – 功能丰富的工具,非常有效的使用交互式 Python。
  • bpython – 界面丰富的 Python 解析器。
  • ptpython – 高级交互式Python解析器, 构建于 python-prompt-toolkit 之上。
  • 文件管理和 MIME(多用途的网际邮件扩充协议)类型检测。

  • imghdr – (Python 标准库)检测图片类型。
  • mimetypes – (Python 标准库)将文件名映射为 MIME 类型。
  • path.py – 对 os.path 进行封装的模块。
  • pathlib – (Python3.4+ 标准库)跨平台的、面向对象的路径操作库。
  • python-magic – 文件类型检测的第三方库 libmagic 的 Python 接口。
  • Unipath – 用面向对象的方式操作文件和目录
  • watchdog – 管理文件系统事件的 API 和 shell 工具
  • 日期和时间

    操作日期和时间的类库。

  • arrow – 更好的 Python 日期时间操作类库。
  • Chronyk – Python 3 的类库,用于解析手写格式的时间和日期。
  • dateutil – Python datetime 模块的扩展。
  • delorean – 解决 Python 中有关日期处理的棘手问题的库。
  • moment – 一个用来处理时间和日期的Python库。灵感来自于Moment.js。
  • PyTime – 一个简单易用的Python模块,用于通过字符串来操作日期/时间。
  • pytz – 现代以及历史版本的世界时区定义。将时区数据库引入Python。
  • when.py – 提供用户友好的函数来帮助用户进行常用的日期和时间操作。
  • 用于解析和操作文本的库。

  • chardet – 字符编码检测器,兼容 Python2 和 Python3。
  • difflib – (Python 标准库)帮助我们进行差异化比较。
  • ftfy – 让Unicode文本更完整更连贯。
  • fuzzywuzzy – 模糊字符串匹配。
  • Levenshtein – 快速计算编辑距离以及字符串的相似度。
  • pangu.py – 在中日韩语字符和数字字母之间添加空格。
  • pyfiglet -figlet 的 Python实现。
  • shortuuid – 一个生成器库,用以生成简洁的,明白的,URL 安全的 UUID。
  • unidecode – Unicode 文本的 ASCII 转换形式 。
  • uniout – 打印可读的字符,而不是转义的字符串。
  • xpinyin – 一个用于把汉字转换为拼音的库。
  • Slug化
  • awesome-slugify – 一个 Python slug 化库,可以保持 Unicode。
  • python-slugify – Python slug 化库,可以把 unicode 转化为 ASCII。
  • unicode-slugify – 一个 slug 工具,可以生成 unicode slugs ,需要依赖 Django 。
  • phonenumbers – 解析,格式化,储存,验证电话号码。
  • PLY – lex 和 yacc 解析工具的 Python 实现。
  • Pygments – 通用语法高亮工具。
  • pyparsing – 生成通用解析器的框架。
  • python-nameparser – 把一个人名分解为几个独立的部分。
  • python-user-agents – 浏览器 user agent 解析器。
  • sqlparse – 一个无验证的 SQL 解析器。
  • 特殊文本格式处理

    一些用来解析和操作特殊文本格式的库。

  • tablib – 一个用来处理中表格数据的模块。
  • Office
  • Marmir – 把输入的Python 数据结构转换为电子表单。
  • openpyxl – 一个用来读写 Excel 2010 xlsx/xlsm/xltx/xltm 文件的库。
  • python-docx – 读取,查询以及修改 Microsoft Word 2007/2008 docx 文件。
  • unoconv – 在 LibreOffice/OpenOffice 支持的任意文件格式之间进行转换。
  • XlsxWriter – 一个用于创建 Excel .xlsx 文件的 Python 模块。
  • xlwings – 一个使得在 Excel 中方便调用 Python 的库(反之亦然),基于 BSD 协议。
  • xlwt / xlrd – 读写 Excel 文件的数据和格式信息。
  • relatorio – 模板化OpenDocument 文件。
  • PDFMiner – 一个用于从PDF文档中抽取信息的工具。
  • PyPDF2 – 一个可以分割,合并和转换 PDF 页面的库。
  • ReportLab – 快速创建富文本 PDF 文档。
  • Markdown
  • Mistune – 快速并且功能齐全的纯 Python 实现的 Markdown 解析器。
  • Python-Markdown – John Gruber’s Markdown 的 Python 版实现。
  • PyYAML – Python 版本的 YAML 解析器。
  • csvkit – 用于转换和操作 CSV 的工具。
  • Archive
  • unp – 一个用来方便解包归档文件的命令行工具。
  • 自然语言处理

    用来处理人类语言的库。

  • NLTK – 一个先进的平台,用以构建处理人类语言数据的 Python 程序。
  • jieba – 中文分词工具。
  • langid.py – 独立的语言识别系统。
  • Pattern – Python 网络信息挖掘模块。
  • SnowNLP – 一个用来处理中文文本的库。
  • TextBlob – 为进行普通自然语言处理任务提供一致的 API。
  • TextGrocery – 一简单高效的短文本分类工具,基于 LibLinear 和 Jieba。
  • 用以生成项目文档的库。

  • Sphinx – Python 文档生成器。
  • awesome-sphinxdoc
  • MkDocs – 对 Markdown 友好的文档生成器。
  • pdoc – 一个可以替换Epydoc 的库,可以自动生成 Python 库的 API 文档。
  • Pycco – 文学编程(literate-programming)风格的文档生成器。
  • 用来保存和解析配置的库。

  • config logging 模块作者写的分级配置模块。
  • ConfigObj – INI 文件解析器,带验证功能。
  • ConfigParser – (Python 标准库) INI 文件解析器。
  • profig – 通过多种格式进行配置,具有数值转换功能。
  • python-decouple – 将设置和代码完全隔离。
  • 命令行工具

    用于创建命令行程序的库。

  • 命令行程序开发
  • cement – Python 的命令行程序框架。
  • click – 一个通过组合的方式来创建精美命令行界面的包。
  • cliff – 一个用于创建命令行程序的框架,可以创建具有多层命令的命令行程序。
  • clint – Python 命令行程序工具。
  • colorama – 跨平台彩色终端文本。
  • docopt – Python 风格的命令行参数解析器。
  • Gooey – 一条命令,将命令行程序变成一个 GUI 程序。
  • python-prompt-toolkit – 一个用于构建强大的交互式命令行程序的库。
  • 生产力工具
  • aws-cli – Amazon Web Services 的通用命令行界面。
  • bashplotlib – 在终端中进行基本绘图。
  • caniusepython3 – 判断是哪个项目妨碍你你移植到 Python 3。
  • cookiecutter – 从 cookiecutters(项目模板)创建项目的一个命令行工具。
  • doitlive – 一个用来在终端中进行现场演示的工具。
  • howdoi – 通过命令行获取即时的编程问题解答。
  • httpie – 一个命令行HTTP 客户端,cURL 的替代品,易用性更好。
  • PathPicker – 从bash输出中选出文件。
  • percol – 向UNIX shell 传统管道概念中加入交互式选择功能。
  • SAWS – 一个加强版的 AWS 命令行。
  • thefuck – 修正你之前的命令行指令。
  • mycli – 一个 MySQL 命令行客户端,具有自动补全和语法高亮功能。
  • pgcli – Postgres 命令行工具,具有自动补全和语法高亮功能。
  • 用来进行下载的库.

  • s3cmd – 一个用来管理Amazon S3 和 CloudFront 的命令行工具。
  • s4cmd – 超级 S3 命令行工具,性能更加强劲。
  • you-get – 一个 YouTube/Youku/Niconico 视频下载器,使用 Python3 编写。
  • youtube-dl – 一个小巧的命令行程序,用来下载 YouTube 视频。
  • 用来操作图像的库.

  • pillow – Pillow 是一个更加易用版的 PIL
  • hmap – 图像直方图映射。
  • imgSeek – 一个使用视觉相似性搜索一组图片集合的项目。
  • nude.py – 裸体检测。
  • pyBarcode – 不借助 PIL 库在 Python 程序中生成条形码。
  • pygram – 类似 Instagram 的图像滤镜。
  • python-qrcode – 一个纯 Python 实现的二维码生成器。
  • Quads – 基于四叉树的计算机艺术。
  • scikit-image – 一个用于(科学)图像处理的 Python 库。
  • thumbor – 一个小型图像服务,具有剪裁,尺寸重设和翻转功能。
  • wand MagickWand 的Python 绑定。MagickWand 是 ImageMagick的 C API 。
  • 光学字符识别库。

  • pyocr – Tesseract 和 Cuneiform 的一个封装(wrapper)。
  • pytesseract Google Tesseract OCR 的另一个封装(wrapper)。
  • python-tesseract – Google Tesseract OCR 的一个包装类。
  • 用来操作音频的库

  • audiolazy -Python 的数字信号处理包。
  • audioread – 交叉库 (GStreamer + Core Audio + MAD + FFmpeg) 音频解码。
  • beets – 一个音乐库管理工具及 MusicBrainz 标签添加工具
  • dejavu – 音频指纹提取和识别
  • django-elastic-transcoder – Django + Amazon Elastic Transcoder
  • eyeD3 – 一个用来操作音频文件的工具,具体来讲就是包含 ID3 元信息的 MP3 文件。
  • id3reader – 一个用来读取 MP3 元数据的 Python 模块。
  • m3u8 – 一个用来解析 m3u8 文件的模块。
  • mutagen – 一个用来处理音频元数据的 Python 模块。
  • pydub – 通过简单、简洁的高层接口来操作音频文件。
  • pyechonest Echo Nest API 的 Python 客户端
  • talkbox – 一个用来处理演讲/信号的 Python 库
  • TimeSide – 开源 web 音频处理框架。
  • tinytag – 一个用来读取MP3, OGG, FLAC 以及 Wave 文件音乐元数据的库。
  • mingus – 一个高级音乐理论和曲谱包,支持 MIDI 文件和回放功能。
  • Video

    用来操作视频和GIF的库。

  • moviepy – 一个用来进行基于脚本的视频编辑模块,适用于多种格式,包括动图 GIFs。
  • scikit-video – SciPy 视频处理常用程序。
  • 地理编码地址以及用来处理经纬度的库。

  • GeoDjango – 世界级地理图形 web 框架。
  • GeoIP – MaxMind GeoIP Legacy 数据库的 Python API。
  • geojson – GeoJSON 的 Python 绑定及工具。
  • geopy – Python 地址编码工具箱。
  • pygeoip – 纯 Python GeoIP API。
  • django-countries – 一个 Django 应用程序,提供用于表格的国家选择功能,国旗图标静态文件以及模型中的国家字段。
  • 使用HTTP的库。

  • requests – 人性化的HTTP请求库。
  • grequests – requests 库 + gevent ,用于异步 HTTP 请求.
  • httplib2 – 全面的 HTTP 客户端库。
  • treq – 类似 requests 的Python API 构建于 Twisted HTTP 客户端之上。
  • urllib3 – 一个具有线程安全连接池,支持文件 post,清晰友好的 HTTP 库。
  • Python实现的数据库。

  • pickleDB – 一个简单,轻量级键值储存数据库。
  • PipelineDB – 流式 SQL 数据库。
  • TinyDB – 一个微型的,面向文档型数据库。
  • ZODB – 一个 Python 原生对象数据库。一个键值和对象图数据库。
  • 数据库驱动

    用来连接和操作数据库的库。

  • MySQL – awesome-mysql 系列
  • mysql-python – Python 的 MySQL 数据库连接器。
  • mysqlclient – mysql-python 分支,支持 Python 3。
  • oursql – 一个更好的 MySQL 连接器,支持原生预编译指令和 BLOBs.
  • PyMySQL – 纯 Python MySQL 驱动,兼容 mysql-python。
  • PostgreSQL
  • psycopg2 – Python 中最流行的 PostgreSQL 适配器。
  • queries – psycopg2 库的封装,用来和 PostgreSQL 进行交互。
  • txpostgres – 基于 Twisted 的异步 PostgreSQL 驱动。
  • 其他关系型数据库
  • apsw – 另一个 Python SQLite封装。
  • dataset – 在数据库中存储Python字典 – 可以协同SQLite,MySQL,和 PostgreSQL工作。
  • pymssql – 一个简单的Microsoft SQL Server数据库接口。
  • NoSQL 数据库
  • cassandra-python-driver – Cassandra 的 Python 驱动。
  • HappyBase – 一个为 Apache HBase 设计的,对开发者友好的库。
  • Plyvel – 一个快速且功能丰富的 LevelDB 的 Python 接口。
  • py2neo – Neo4j restful 接口的Python 封装客户端。
  • pycassa – Cassandra 的 Python Thrift 驱动。
  • PyMongo – MongoDB 的官方 Python 客户端。
  • redis-py – Redis 的 Python 客户端。
  • telephus – 基于 Twisted 的 Cassandra 客户端。
  • txRedis – 基于 Twisted 的 Redis 客户端。
  • 实现对象关系映射或数据映射技术的库。

  • 关系型数据库
  • Django Models – Django 的一部分。
  • SQLAlchemy – Python SQL 工具以及对象关系映射工具。
  • awesome-sqlalchemy 系列
  • Peewee – 一个小巧,富有表达力的 ORM。
  • PonyORM – 提供面向生成器的 SQL 接口的 ORM。
  • python-sql – 编写 Python 风格的 SQL 查询。
  • NoSQL 数据库
  • django-mongodb-engine – Django MongoDB 后端。
  • PynamoDB Amazon DynamoDB 的一个 Python 风格接口。
  • flywheel – Amazon DynamoDB 的对象映射工具。
  • MongoEngine – 一个Python 对象文档映射工具,用于 MongoDB。
  • hot-redis – 为 Redis 提供 Python 丰富的数据类型。
  • redisco – 一个 Python 库,提供可以持续存在在 Redis 中的简单模型和容器。
  • butterdb – Google Drive 电子表格的 Python ORM。
  • Web 框架

    全栈 web 框架。

  • Django – Python 界最流行的 web 框架。
  • awesome-django 系列
  • Flask – 一个 Python 微型框架。
  • awesome-flask 系列
  • Pyramid – 一个小巧,快速,接地气的开源Python web 框架。
  • awesome-pyramid 系列
  • Bottle – 一个快速小巧,轻量级的 WSGI 微型 web 框架。
  • CherryPy – 一个极简的 Python web 框架,服从 HTTP/1.1 协议且具有WSGI 线程池。
  • TurboGears – 一个可以扩展为全栈解决方案的微型框架。
  • web.py – 一个 Python 的 web 框架,既简单,又强大。
  • web2py – 一个全栈 web 框架和平台,专注于简单易用。
  • Tornado – 一个web 框架和异步网络库。
  • 允许或拒绝用户访问数据或功能的库。

  • Carteblanche – Module to align code with thoughts of users and designers. Also magically handles navigation and permissions.
  • django-guardian – Django 1.2+ 实现了单个对象权限。
  • django-rules – 一个小巧但是强大的应用,提供对象级别的权限管理,且不需要使用数据库。
  • 内容管理系统

  • django-cms – 一个开源的,企业级 CMS,基于 Django。
  • djedi-cms – 一个轻量级但却非常强大的 Django CMS ,考虑到了插件,内联编辑以及性能。
  • FeinCMS – 基于 Django 构建的最先进的内容管理系统之一。
  • Kotti – 一个高级的,Python 范的 web 应用框架,基于 Pyramid 构建。
  • Mezzanine – 一个强大的,持续的,灵活的内容管理平台。
  • Opps – 一个为杂志,报纸网站以及大流量门户网站设计的 CMS 平台,基于 Django。
  • Plone – 一个构建于开源应用服务器 Zope 之上的 CMS。
  • Quokka – 灵活,可扩展的小型 CMS,基于 Flask 和 MongoDB。
  • Wagtail – 一个 Django 内容管理系统。
  • Widgy – 最新的 CMS 框架,基于 Django。
  • 用于电子商务以及支付的框架和库。

  • django-oscar – 一个用于 Django 的开源的电子商务框架。
  • django-shop – 一个基于 Django 的店铺系统。
  • Cartridge – 一个基于 Mezzanine 构建的购物车应用。
  • shoop – 一个基于 Django 的开源电子商务平台。
  • alipay – 非官方的 Python 支付宝 API。
  • merchant – 一个可以接收来自多种支付平台支付的 Django 应用。
  • money – 货币类库with optional CLDR-backed locale-aware formatting and an extensible currency exchange solution.
  • python-currencies – 显示货币格式以及它的数值。
  • RESTful API

    用来开发RESTful APIs的库

  • Django
  • django-rest-framework – 一个强大灵活的工具,用来构建 web API。
  • django-tastypie – 为Django 应用开发API。
  • django-formapi – 为 Django 的表单验证,创建 JSON APIs 。
  • Flask
  • flask-api – 为 flask 开发的,可浏览 Web APIs 。
  • flask-restful – 为 flask 快速创建REST APIs 。
  • flask-restless – 为 SQLAlchemy 定义的数据库模型创建 RESTful APIs 。
  • flask-api-utils – 为 Flask 处理 API 表示和验证。
  • eve – REST API 框架,由 Flask, MongoDB 等驱动。
  • Pyramid
  • cornice – 一个Pyramid 的 REST 框架 。
  • 与框架无关的
  • falcon – 一个用来建立云 API 和 web app 后端的噶性能框架。
  • sandman – 为现存的数据库驱动系统自动创建 REST APIs 。
  • restless – 框架无关的 REST 框架 ,基于从 Tastypie 学到的知识。
  • ripozo – 快速创建 REST/HATEOAS/Hypermedia APIs。
  • 实现验证方案的库。

  • OAuth
  • Authomatic – 简单但是强大的框架,身份验证/授权客户端。
  • django-allauth – Django 的验证应用。
  • django-oauth-toolkit – 为 Django 用户准备的 OAuth2。
  • django-oauth2-provider – 为 Django 应用提供 OAuth2 接入。
  • Flask-OAuthlib – OAuth 1.0/a, 2.0 客户端实现,供 Flask 使用。
  • OAuthLib – 一个 OAuth 请求-签名逻辑通用、 完整的实现。
  • python-oauth2 – 一个完全测试的抽象接口。用来创建 OAuth 客户端和服务端。
  • python-social-auth – 一个设置简单的社会化验证方式。
  • rauth – OAuth 1.0/a, 2.0, 和 Ofly 的 Python 库。
  • sanction – 一个超级简单的OAuth2 客户端实现。
  • jose – JavaScript 对象签名和加密草案的实现。
  • PyJWT – JSON Web 令牌草案 01。
  • python-jws – JSON Web 签名草案 02 的实现。
  • python-jwt – 一个用来生成和验证 JSON Web 令牌的模块。
  • 模板生成和词法解析的库和工具。

  • Jinja2 – 一个现代的,对设计师友好的模板引擎。
  • Chameleon – 一个 HTML/XML 模板引擎。 模仿了 ZPT(Zope Page Templates), 进行了速度上的优化。
  • Genshi – Python 模板工具,用以生成 web 感知的结果。
  • Mako – Python 平台的超高速轻量级模板。
  • Queue

    处理事件以及任务队列的库。

  • celery – 一个异步任务队列/作业队列,基于分布式消息传递。
  • huey – 小型多线程任务队列。
  • mrq – Mr. Queue -一个 Python 的分布式 worker 任务队列, 使用 Redis 和 gevent。
  • rq – 简单的 Python 作业队列。
  • simpleq – 一个简单的,可无限扩张的,基于亚马逊 SQS 的队列。
  • 对数据进行索引和执行搜索查询的库和软件。

  • django-haystack – Django 模块化搜索。
  • elasticsearch-py – Elasticsearch 的官方底层 Python 客户端。
  • elasticsearch-dsl-py -Elasticsearch 的官方高级 Python 客户端。
  • solrpy solr 的 Python 客户端。
  • Whoosh – 一个快速的纯 Python 搜索引擎库。
  • 用来创建用户活动的库。

  • django-activity-stream – 从你的站点行为中生成通用活动信息流。
  • Stream-Framework – 使用 Cassandra 和 Redis 创建动态消息和通知系统。
  • 管理、压缩、缩小网站资源的工具。

  • django-compressor – 将链接和内联的 JavaScript 或 CSS 压缩到一个单独的缓存文件中。
  • django-storages – 一个针对 Django 的自定义存储后端的工具集合。
  • fanstatic – 打包、优化,并且把静态文件依赖作为 Python 的包来提供。
  • File Conveyor – 一个后台驻留的程序,用来发现和同步文件到 CDNs, S3 和 FTP。
  • Flask-Assets – 帮你将 web 资源整合到你的 Flask app 中。
  • jinja-assets-compressor – 一个 Jinja 扩展,用来编译和压缩你的资源。
  • webassets – 为你的静态资源打包、优化和管理生成独一无二的缓存 URL。
  • 缓存数据的库。

  • Beaker – 一个缓存和会话库,可以用在 web 应用和独立 Python脚本和应用上。
  • django-cache-machine – Django 模型的自动缓存和失效。
  • django-cacheops – 具有自动颗粒化事件驱动失效功能的 ORM。
  • django-viewlet – 渲染模板,同时具有额外的缓存控制功能。
  • dogpile.cache – dogpile.cache 是 Beaker 的下一代替代品,由同一作者开发。
  • HermesCache – Python 缓存库,具有基于标签的失效和 dogpile effect 保护功能。
  • johnny-cache – django应用缓存框架。
  • pylibmc libmemcached 接口的 Python 封装。
  • 用来发送和解析电子邮件的库。

  • django-celery-ses – 带有 AWS SES 和 Celery 的 Django email 后端。
  • envelopes – 供人类使用的电子邮件库。
  • flanker – 一个 email 地址和 Mime 解析库。
  • imbox – Python IMAP 库
  • inbox.py – Python SMTP 服务器。
  • inbox – 一个开源电子邮件工具箱。
  • lamson – Python 风格的 SMTP 应用服务器。
  • mailjet – Mailjet API 实现,用来提供批量发送邮件,统计等功能。
  • marrow.mailer – 高性能可扩展邮件分发框架。
  • modoboa – 一个邮件托管和管理平台,具有现代的、简约的 Web UI。
  • pyzmail – 创建,发送和解析电子邮件。
  • Talon – Mailgun 库,用来抽取信息和签名。
  • 用来进行国际化的库。

  • Babel – 一个Python 的国际化库。
  • Korean – 一个韩语词态库。
  • URL处理

    解析URLs的库

  • furl – 一个让处理 URL 更简单小型 Python 库。
  • purl – 一个简单的,不可变的URL类,具有简洁的 API 来进行询问和处理。
  • pyshorteners – 一个纯 Python URL 缩短库。
  • shorturl – 生成短小 URL 和类似 bit.ly 短链的Python 实现。
  • webargs – 一个解析 HTTP 请求参数的库,内置对流行 web 框架的支持,包括 Flask, Django, Bottle, Tornado和 Pyramid。
  • HTML处理

    处理 HTML和XML的库。

  • BeautifulSoup – 以 Python 风格的方式来对 HTML 或 XML 进行迭代,搜索和修改。
  • bleach – 一个基于白名单的 HTML 清理和文本链接库。
  • cssutils – 一个 Python 的 CSS 库。
  • html5lib – 一个兼容标准的 HTML 文档和片段解析及序列化库。
  • lxml – 一个非常快速,简单易用,功能齐全的库,用来处理 HTML 和 XML。
  • MarkupSafe – 为Python 实现 XML/HTML/XHTML 标记安全字符串。
  • pyquery – 一个解析 HTML 的库,类似 jQuery。
  • untangle – 将XML文档转换为Python对象,使其可以方便的访问。
  • xhtml2pdf – HTML/CSS 转 PDF 工具。
  • xmltodict – 像处理 JSON 一样处理 XML。
  • 网络站点爬取

    爬取网络站点的库

  • Scrapy – 一个快速高级的屏幕爬取及网页采集框架。
  • cola – 一个分布式爬虫框架。
  • Demiurge – 基于PyQuery 的爬虫微型框架。
  • feedparser – 通用 feed 解析器。
  • Grab – 站点爬取框架。
  • MechanicalSoup – 用于自动和网络站点交互的 Python 库。
  • portia – Scrapy 可视化爬取。
  • pyspider – 一个强大的爬虫系统。
  • RoboBrowser – 一个简单的,Python 风格的库,用来浏览网站,而不需要一个独立安装的浏览器。
  • 网页内容提取

    用于进行网页内容提取的库。

  • Haul – 一个可以扩展的图像爬取工具。
  • html2text – 将 HTML 转换为 Markdown 格式文本
  • lassie – 人性化的网页内容检索库。
  • micawber -一个小型网页内容提取库,用来从 URLs 提取富内容。
  • newspaper – 使用 Python 进行新闻提取,文章提取以及内容策展。
  • opengraph – 一个用来解析开放内容协议(Open Graph Protocol)的 Python模块。
  • python-goose – HTML内容/文章提取器。
  • python-readability – arc90 公司 readability 工具的 Python 高速端口
  • sanitize – 为杂乱的数据世界带来调理性。
  • sumy – 一个为文本文件和 HTML 页面进行自动摘要的模块。
  • textract – 从任何格式的文档中提取文本,Word,PowerPoint,PDFs 等等。
  • 进行表单操作的库。

  • Deform – Python HTML 表单生成库,受到了 formish 表单生成库的启发。
  • django-bootstrap3 – 集成了 Bootstrap 3 的 Django。
  • django-crispy-forms – 一个 Django 应用,他可以让你以一种非常优雅且 DRY(Don’t repeat yourself) 的方式来创建美观的表单。
  • django-remote-forms – 一个平台独立的 Django 表单序列化工具。
  • WTForms – 一个灵活的表单验证和呈现库。
  • WTForms-JSON – 一个 WTForms 扩展,用来处理 JSON 数据。
  • 数据验证库。多用于表单验证。

  • Cerberus – A mappings-validator with a variety of rules, normalization-features and simple customization that uses a pythonic schema-definition.
  • colander – 一个用于对从 XML, JSON,HTML 表单获取的数据或其他同样简单的序列化数据进行验证和反序列化的系统。
  • kmatch – 一种用于匹配/验证/筛选 Python 字典的语言。
  • schema -一个用于对 Python 数据结构进行验证的库。
  • Schematics – 数据结构验证。
  • valideer – 轻量级可扩展的数据验证和适配库。
  • voluptuous – 一个 Python 数据验证库。主要是为了验证传入 Python的 JSON,YAML 等数据。
  • 反垃圾技术

    帮助你和电子垃圾进行战斗的库。

  • django-simple-captcha – 一个简单、高度可定制的Django 应用,可以为任何Django表单添加验证码。
  • django-simple-spam-blocker – 一个用于Django的简单的电子垃圾屏蔽工具。
  • 用来进行标记的库。

  • django-taggit – 简单的 Django 标记工具。
  • 管理界面库。

  • Ajenti – 一个你的服务器值得拥有的管理面板。
  • django-suit – Django 管理界面的一个替代品 (仅对于非商业用途是免费的)。
  • django-xadmin – Django admin 的一个替代品,具有很多不错的功能。
  • flask-admin – 一个用于 Flask 的简单可扩展的管理界面框架。
  • flower – 一个对 Celery 集群进行实时监控和提供 web 管理界面的工具。
  • Grappelli – Django 管理界面的一个漂亮的皮肤。
  • Wooey – 一个 Django 应用,可以为 Python 脚本创建 web 用户界面。
  • 静态站点生成器

    静态站点生成器是一个软件,它把文本和模板作为输入,然后输出HTML文件。

  • Pelican – 使用 Markdown 或 ReST 来处理内容, Jinja 2 来制作主题。支持 DVCS, Disqus.。AGPL 许可。
  • Cactus – 为设计师设计的静态站点生成器。
  • Hyde – 基于 Jinja2 的静态站点生成器。
  • Nikola – 一个静态网站和博客生成器。
  • Tinkerer – Tinkerer 是一个博客引擎/静态站点生成器,由Sphinx驱动。
  • Lektor – 一个简单易用的静态 CMS 和博客引擎。
  • 操作系统进程启动及通信库。

  • envoy – 比 Python subprocess 模块更人性化。
  • sarge – 另一 种 subprocess 模块的封装。
  • sh – 一个完备的 subprocess 替代库。
  • 并发和并行

    用以进行并发和并行操作的库。

  • multiprocessing – (Python 标准库) 基于进程的“线程”接口。
  • threading – (Python 标准库)更高层的线程接口。
  • eventlet – 支持 WSGI 的异步框架。
  • gevent – 一个基于协程的 Python 网络库,使用 greenlet
  • Tomorrow -用于产生异步代码的神奇的装饰器语法实现。
  • 用于网络编程的库。

  • asyncio – (Python 标准库) 异步 I/O, 事件循环, 协程以及任务。
  • Twisted – 一个事件驱动的网络引擎。
  • pulsar – 事件驱动的并发框架。
  • diesel – 基于Greenlet 的事件 I/O 框架。
  • pyzmq – 一个 ZeroMQ 消息库的 Python 封装。
  • txZMQ – 基于 Twisted 的 ZeroMQ 消息库的 Python 封装。
  • WebSocket

    帮助使用WebSocket的库。

  • AutobahnPython – 给 Python 、使用的 WebSocket & WAMP 基于 Twisted 和 asyncio
  • Crossbar – 开源统一应用路由(Websocket & WAMP for Python on Autobahn).
  • django-socketio – 给 Django 用的 WebSockets。
  • WebSocket-for-Python – 为Python2/3 以及 PyPy 编写的 WebSocket 客户端和服务器库。
  • WSGI 服务器

    兼容 WSGI 的 web 服务器

  • gunicorn – Pre-forked, 部分是由 C 语言编写的。
  • uwsgi – uwsgi 项目的目的是开发一组全栈工具,用来建立托管服务, 由 C 语言编写。
  • bjoern – 异步,非常快速,由 C 语言编写。
  • fapws3 – 异步 (仅对于网络端),由 C 语言编写。
  • meinheld – 异步,部分是由 C 语言编写的。
  • netius – 异步,非常快速。
  • paste – 多线程,稳定,久经考验。
  • rocket – 多线程。
  • waitress – 多线程, 是它驱动着 Pyramid 框架。
  • Werkzeug – 一个 WSGI 工具库,驱动着 Flask ,而且可以很方便大嵌入到你的项目中去。
  • RPC 服务器

    兼容 RPC 的服务器。

  • SimpleJSONRPCServer – 这个库是 JSON-RPC 规范的一个实现。
  • SimpleXMLRPCServer – (Python 标准库) 简单的 XML-RPC 服务器实现,单线程。
  • zeroRPC – zerorpc 是一个灵活的 RPC 实现,基于 ZeroMQ 和 MessagePack。
  • cryptography – 这个软件包意在提供密码学基本内容和方法提供给 Python 开发者。
  • hashids – 在 Python 中实现 hashids
  • Paramiko – SSHv2 协议的 Python (2.6+, 3.3+) ,提供客户端和服务端的功能。
  • Passlib – 安全密码存储/哈希库,
  • PyCrypto – Python 密码学工具箱。
  • PyNacl – 网络和密码学(NaCl) 库的 Python 绑定。
  • 图形用户界面

    用来创建图形用户界面程序的库。

  • curses – 内建的 ncurses 封装,用来创建终端图形用户界面。
  • enaml – 使用类似 QML 的Declaratic语法来创建美观的用户界面。
  • kivy – 一个用来创建自然用户交互(NUI)应用程序的库,可以运行在 Windows, Linux, Mac OS X, Android 以及 iOS平台上。
  • pyglet – 一个Python 的跨平台窗口及多媒体库。
  • PyQt – 跨平台用户界面框架 Qt 的 Python 绑定 ,支持Qt v4 和 Qt v5。
  • PySide – P跨平台用户界面框架 Qt 的 Python 绑定 ,支持Qt v4。
  • Tkinter – Tkinter 是 Python GUI 的一个事实标准库。
  • Toga – 一个 Python 原生的, 操作系统原生的 GUI 工具包。
  • urwid – 一个用来创建终端 GUI 应用的库,支持组件,事件和丰富的色彩等。
  • wxPython – wxPython 是 wxWidgets C++ 类库和 Python 语言混合的产物。
  • PyGObject – GLib/GObject/GIO/GTK+ (GTK+3) 的 Python 绑定
  • Flexx – Flexx 是一个纯 Python 语言编写的用来创建 GUI 程序的工具集,它使用 web 技术进行界面的展示。
  • 超赞的游戏开发库。

  • Cocos2d – cocos2d 是一个用来开发 2D 游戏, 示例和其他图形/交互应用的框架。基于 pyglet。
  • Panda3D – 由迪士尼开发的 3D 游戏引擎,并由卡内基梅陇娱乐技术中心负责维护。使用C++编写, 针对 Python 进行了完全的封装。
  • Pygame – Pygame 是一组 Python 模块,用来编写游戏。
  • PyOgre – Ogre 3D 渲染引擎的 Python 绑定,可以用来开发游戏和仿真程序等任何 3D 应用。
  • PyOpenGL – OpenGL 的 Python 绑定及其相关 APIs。
  • PySDL2 – SDL2 库的封装,基于 ctypes。
  • RenPy – 一个视觉小说(visual novel)引擎。
  • 用来生成和操作日志的库。

  • logging – (Python 标准库) 为 Python 提供日志功能。
  • logbook – Logging 库的替代品。
  • Eliot – 为复杂的和分布式系统创建日志。
  • Raven – Sentry的 Python 客户端。
  • Sentry – 实时记录和收集日志的服务器。
  • Testing

    进行代码库测试和生成测试数据的库。

  • unittest – (Python 标准库) 单元测试框架。
  • nose – nose 扩展了 unittest 的功能。
  • contexts – 一个 Python 3.3+ 的 BDD 框架。受到C# – Machine.Specifications 的启发。
  • hypothesis – Hypothesis 是一个基于先进的 Quickcheck 风格特性的测试库。
  • mamba – Python 的终极测试工具, 拥护BDD。
  • PyAutoGUI – PyAutoGUI 是一个人性化的跨平台 GUI 自动测试模块。
  • pyshould – Should 风格的断言,基于 PyHamcrest
  • pytest – 一个成熟的全功能 Python 测试工具。
  • green – 干净,多彩的测试工具。
  • pyvows – BDD 风格的测试工具,受Vows.js的启发。
  • Robot Framework – 一个通用的自动化测试框架。
  • Web 测试
  • Selenium Selenium WebDriver 的 Python 绑定。
  • locust – 使用 Python 编写的,可扩展的用户加载测试工具。
  • sixpack – 一个和语言无关的 A/B 测试框架。
  • splinter – 开源的 web 应用测试工具。
  • Mock测试
  • mock – (Python 标准库) 一个用于伪造测试的库。
  • doublex – Python 的一个功能强大的 doubles 测试框架。
  • freezegun – 通过伪造日期模块来生成不同的时间。
  • httmock – 针对 Python 2.6+ 和 3.2+ 生成 伪造请求的库。
  • httpretty – Python 的 HTTP 请求 mock 工具。
  • responses – 伪造 Python 中的 requests 库的一个通用库。
  • VCR.py – 在你的测试中记录和重放 HTTP 交互。
  • factoryboy – 一个 Python 用的测试固件 (test fixtures) 替代库。
  • mixer – 另外一个测试固件 (test fixtures) 替代库,支持 Django, Flask, SQLAlchemy, Peewee 等。
  • modelmommy – 为 Django 测试创建随机固件
  • 代码覆盖率
  • coverage – 代码覆盖率测量。
  • faker – 一个 Python 库,用来生成伪数据。
  • fake2db – 伪数据库生成器。
  • radar – 生成随机的日期/时间。
  • FuckIt.py – FuckIt.py 使用最先进的技术来保证你的 Python 代码无论对错都能继续运行。
  • 代码分析和Lint工具

    进行代码分析,解析和操作代码库的库和工具。

  • code2flow – 把你的 Python 和 JavaScript 代码转换为流程图。
  • pycallgraph -这个库可以把你的Python 应用的流程(调用图)进行可视化。
  • pysonar2 – Python 类型推断和检索工具。
  • Lint工具
  • Flake8 – 模块化源码检查工具: pep8, pyflakes 以及 co。
  • Pylint – 一个完全可定制的源码分析器。
  • pylama – Python 和 JavaScript 的代码审查工具。
  • Debugging Tools

    用来进行代码调试的库。

  • ipdb – IPython 启用的 pdb
  • pudb – 全屏,基于控制台的 Python 调试器。
  • pyringe – 可以在 Python 进程中附加和注入代码的调试器。
  • wdb – 一个奇异的 web 调试器,通过 WebSockets 工作。
  • winpdb – 一个具有图形用户界面的 Python 调试器,可以进行远程调试,基于 rpdb2。
  • django-debug-toolbar – 为 Django 显示各种调试信息。
  • django-devserver – 一个 Django 运行服务器的替代品。
  • flask-debugtoolbar – django-debug-toolbar 的 flask 版。
  • 性能分析器
  • lineprofiler – 逐行性能分析。
  • memoryprofiler – 监控 Python 代码的内存使用。
  • profiling – 一个交互式 Python 性能分析工具。
  • pyelftools – 解析和分析 ELF 文件以及 DWARF 调试信息。
  • python-statsd statsd 服务器的 Python 客户端。
  • Science and Data Analysis

    用来进行科学计算和数据分析的库。

  • astropy – 一个天文学 Python 库。
  • bcbio-nextgen – 这个工具箱为全自动高通量测序分析提供符合最佳实践的处理流程。
  • bccb – 生物分析相关代码集合
  • Biopython – Biopython 是一组可以免费使用的用来进行生物计算的工具。
  • blaze – NumPy 和 Pandas 的大数据接口。
  • cclib – 一个用来解析和解释计算化学软件包输出结果的库。
  • NetworkX – 一个为复杂网络设计的高性能软件。
  • Neupy – 执行和测试各种不同的人工神经网络算法。
  • Numba – Python JIT (just in time) 编译器,针对科学用的 Python ,由Cython 和 NumPy 的开发者开发。
  • NumPy – 使用 Python 进行科学计算的基础包。
  • Open Babel – 一个化学工具箱,用来描述多种化学数据。
  • Open Mining – 使用 Python 挖掘商业情报 (BI) (Pandas web 接口)。
  • orange – 通过可视化编程或 Python 脚本进行数据挖掘,数据可视化,分析和机器学习。
  • Pandas – 提供高性能,易用的数据结构和数据分析工具。
  • PyDy – PyDy 是 Python Dynamics 的缩写,用来为动力学运动建模工作流程提供帮助, 基于 NumPy, SciPy, IPython 和 matplotlib。
  • PyMC – 马尔科夫链蒙特卡洛采样工具。
  • RDKit – 化学信息学和机器学习软件。
  • SciPy – 由一些基于 Python ,用于数学,科学和工程的开源软件构成的生态系统。
  • statsmodels – 统计建模和计量经济学。
  • SymPy – 一个用于符号数学的 Python 库。
  • zipline – 一个 Python 算法交易库。
  • 数据可视化

    进行数据可视化的库。 参见: awesome-javascript

  • matplotlib – 一个 Python 2D 绘图库。
  • bokeh – 用 Python 进行交互式 web 绘图。
  • ggplot – ggplot2 给 R 提供的 API 的 Python 版本。
  • plotly – 协同 Python 和 matplotlib 工作的 web 绘图库。
  • pygal – 一个 Python SVG 图表创建工具。
  • pygraphviz – Graphviz 的 Python 接口。
  • PyQtGraph – 交互式实时2D/3D/图像绘制及科学/工程学组件。
  • SnakeViz – 一个基于浏览器的 Python’s cProfile 模块输出结果查看工具。
  • vincent – 把 Python 转换为 Vega 语法的转换工具。
  • VisPy – 基于 OpenGL 的高性能科学可视化工具。
  • 计算机视觉

    计算机视觉库。

  • OpenCV – 开源计算机视觉库。
  • SimpleCV – 一个用来创建计算机视觉应用的开源框架。
  • 机器学习库。 参见: awesome-machine-learning .

  • Crab – 灵活、快速的推荐引擎。
  • gensim – 人性化的话题建模库。
  • hebel – GPU 加速的深度学习库。
  • NuPIC – 智能计算 Numenta 平台。
  • pattern – Python 网络挖掘模块。
  • PyBrain – 另一个 Python 机器学习库。
  • Pylearn2 – 一个基于 Theano 的机器学习库。
  • python-recsys – 一个用来实现推荐系统的 Python 库。
  • scikit-learn – 基于 SciPy 构建的机器学习 Python 模块。
  • pydeep – Python 深度学习库。
  • vowpalporpoise – 轻量级 Vowpal Wabbit 的 Python 封装。
  • skflow – 一个 TensorFlow 的简化接口(模仿 scikit-learn)。
  • MapReduce

    MapReduce 框架和库。

  • dpark – Spark 的 Python 克隆版,一个类似 MapReduce 的框架。
  • dumbo – 这个 Python 模块可以让人轻松的编写和运行 Hadoop 程序。
  • luigi – 这个模块帮你构建批处理作业的复杂流水线。
  • mrjob – 在 Hadoop 或 Amazon Web Services 上运行 MapReduce 任务。
  • PySpark – Spark 的 Python API 。
  • streamparse – 运行针对事实数据流的 Python 代码。集成了 Apache Storm
  • 函数式编程

    使用 Python 进行函数式编程。

  • CyToolz – Toolz 的 Cython 实现 : 高性能函数式工具。
  • fn.py – 在 Python 中进行函数式编程 : 实现了一些享受函数式编程缺失的功能。
  • funcy – 炫酷又实用的函数式工具。
  • Toolz – 一组用于迭代器,函数和字典的函数式编程工具。
  • 第三方 API

    用来访问第三方 API的库。 参见: List of Python API Wrappers and Libraries

  • apache-libcloud – 一个为各种云设计的 Python 库。
  • boto – Amazon Web Services 的 Python 接口。
  • django-wordpress – WordPress models and views for Django.
  • facebook-sdk – Facebook 平台的 Python SDK.
  • facepy – Facepy 让和 Facebook’s Graph API 的交互变得更容易。
  • gmail – Gmail 的 Python 接口。
  • google-api-python-client – Python 用的 Google APIs 客户端库。
  • gspread – Google 电子表格的 Python API.
  • twython – Twitter API 的封装。
  • DevOps 工具

    用于 DevOps 的软件和库。

  • Ansible – 一个非常简单的 IT 自动化平台。
  • SaltStack – 基础设施自动化和管理系统。
  • OpenStack – 用于构建私有和公有云的开源软件。
  • Docker Compose – 快速,分离的开发环境,使用 Docker。
  • Fabric – 一个简单的,Python 风格的工具,用来进行远程执行和部署。
  • cuisine – 为 Fabric 提供一系列高级函数。
  • Fabtools – 一个用来编写超赞的 Fabric 文件的工具。
  • gitapi – Git 的纯 Python API。
  • hgapi – Mercurial 的纯 Python API。
  • honcho Foreman 的 Python 克隆版,用来管理基于 Procfile 的应用。
  • pexpect – Controlling interactive programs in a pseudo-terminal like 在一个伪终端中控制交互程序,就像 GNU expect 一样。
  • psutil – 一个跨平台进程和系统工具模块。
  • supervisor – UNIX 的进程控制系统。
  • 任务调度库。

  • APScheduler – 轻巧但强大的进程内任务调度,使你可以调度函数。
  • django-schedule – 一个 Django 排程应用。
  • doit – 一个任务执行和构建工具。
  • gunnery – 分布式系统使用的多用途任务执行工具 ,具有 web 交互界面。
  • Joblib – 一组为 Python 提供轻量级作业流水线的工具。
  • Plan – 如有神助地编写 crontab 文件。
  • schedule – 人性化的 Python 任务调度库。
  • Spiff – 使用纯 Python 实现的强大的工作流引擎。
  • TaskFlow – 一个可以让你方便执行任务的 Python 库,一致并且可靠。
  • 外来函数接口

    使用外来函数接口的库。

  • cffi – 用来调用 C 代码的外来函数接口。
  • ctypes – (Python 标准库) 用来调用 C 代码的外来函数接口。
  • PyCUDA – Nvidia CUDA API 的封装。
  • SWIG – 简化的封装和接口生成器。
  • 让 Python 更快的库。

  • Cython – 优化的 Python 静态编译器。使用类型混合使 Python 编译成 C 或 C++ 模块来获得性能的极大提升。
  • PeachPy – 嵌入 Python 的 x86-64 汇编器。可以被用作 Python 内联的汇编器或者是独立的汇编器,用于 Windows, Linux, OS X, Native Client 或者 Go 。
  • PyPy – 使用 Python 实现的 Python。解释器使用黑魔法加快 Python 运行速度且不需要加入额外的类型信息。
  • Pyston – 使用 LLVM 和现代 JIT 技术构建的 Python 实现,目标是为了获得很好的性能。
  • Stackless Python – 一个强化版的 Python。
  • 微软的 Windows平台

    在 Windows 平台上进行 Python 编程。

  • Python(x,y) – 面向科学应用的 Python 发行版,基于 Qt 和 Spyder。
  • pythonlibs – 非官方的 Windows 平台 Python 扩展二进制包。
  • PythonNet – Python 与 .NET 公共语言运行库 (CLR)的集成。
  • PyWin32 – 针对 Windows 的Python 扩展。
  • WinPython – Windows 7/8 系统下便携式开发环境。
  • 网络可视化和SDN

    用来进行网络可视化和SDN(软件定义网络)的工具和库。

  • Mininet – 一款流行的网络模拟器以及用 Python 编写的 API。
  • POX – 一个针对基于 Python 的软件定义网络应用(例如 OpenFlow SDN 控制器)的开源开发平台。
  • Pyretic – 火热的 SDN 编程语言中的一员,为网络交换机和模拟器提供强大的抽象能力。
  • SDX Platform – 基于 SDN 的 IXP 实现,影响了 Mininet, POX 和 Pyretic。
  • 用来对硬件进行编程的库。

  • ino -操作 Arduino 的命令行工具。
  • Pyro – Python 机器人编程库。
  • PyUserInput – 跨平台的,控制鼠标和键盘的模块。
  • scapy – 一个非常棒的操作数据包的库。
  • wifi – 一个 Python 库和命令行工具用来在 Linux 平台上操作WiFi。
  • Pingo – Pingo 为类似Raspberry Pi,pcDuino, Intel Galileo等设备提供统一的API用以编程。
  • 帮助从 Python 2 向 Python 3迁移的库。

  • Python-Future – 这就是 Python 2 和 Python 3 之间丢失的那个兼容性层。
  • Python-Modernize – 使 Python 代码更加现代化以便最终迁移到 Python 3。
  • Six – Python 2 和 3 的兼容性工具。
  • 不属于上面任何一个类别,但是非常有用的库。

  • blinker – 一个快速的 Python 进程内信号/事件分发系统。
  • itsdangerous – 一系列辅助工具用来将可信的数据传入不可信的环境。
  • pluginbase – 一个简单但是非常灵活的 Python 插件系统。
  • Pychievements – 一个用来创建和追踪成就的 Python 框架。
  • Tryton – 一个通用商务框架。
  • 算法和设计模式

    Python 实现的算法和设计模式。

  • algorithms -一个 Python 算法模块
  • python-patterns – Python 设计模式的集合。
  • sortedcontainers – 快速,纯 Python 实现的SortedList,SortedDict 和 SortedSet 类型。
  • 编辑器插件

    编辑器和 IDE 的插件

  • Emacs
  • Elpy – Emacs Python 开发环境。
  • Sublime Text
  • SublimeJEDI – 一个 Sublime Text 插件,用来使用超赞的自动补全库 Jedi。
  • Anaconda – Anaconda 把你的 Sublime Text 3 变成一个功能齐全的 Python IDE。
  • YouCompleteMe – 引入基于 Jedi 的 Python 自动补全引擎。
  • Jedi-vim – 绑定 Vim 和 Jedi 自动补全库对 Python 进行自动补全。
  • Python-mode – 将 Vim 变成 Python IDE 的一款多合一插件。
  • Visual Studio
  • PTVS – Visual Studio 的 Python 工具
  • 集成开发环境

    流行的 Python 集成开发环境。

  • PyCharm – 商业化的 Python IDE ,由 JetBrains 开发。也有免费的社区版提供。
  • LiClipse – 基于 Eclipse 的免费多语言 IDE 。使用 PyDev 来支持 Python 。
  • Spyder – 开源 Python IDE。
  • 在线工具和简化开发的 API 。

    参见: awesome-CIandCD .

  • Travis CI – 一个流行的工具,为你的开源和 私人 项目提供持续集成服务。(仅支持 GitHub)
  • CircleCI – 一个持续集成工具,可以非常快速的进行并行测试。 (仅支持 GitHub)
  • Vexor CI – 一个为私人 app 提供持续集成的工具,支持按分钟付费。
  • Wercker – 基于 Docker 平台,用来构建和部署微服务。
  • Codacy – 自动化代码审查,更加快速的发布高质量代码。对于开源项目是免费的。
  • QuantifiedCode – 一个数据驱动、自动、持续的代码审查工具。
  • 在这里可以找到新的 Python 库。

  • r/Python
  • CoolGithubProjects
  • Django Packages
  • Full Stack Python
  • Python 3 Wall of Superpowers
  • Python Hackers
  • Python ZEEF
  • Trending Python repositories on GitHub today
  • PyPI Ranking
  • Import Python Newsletter
  • Pycoder’s Weekly
  • Python Weekly
  • Twitter

  • @codetengu
  • @getpy
  • @planetpython
  • @pycoders
  • @pypi
  • @pythontrending
  • @PythonWeekly
  • from: https://github.com/jobbole/awesome-python-cn

    原网址:https://github.com/vinta/awesome-python

    1、Python环境搭建(Windows)

    开发工具: PyCharm Community Edition (free)

    Python环境:WinPython 3.5 .2.3Qt5
    –此环境集成了机器学习和深度学习用到的主要包:
    numpy , scipy , matplotlib , pandas , scikit-learn , theano , keras

    IPython notebook :

    2、示例代码:

    scikit-learn sample

    keras sample

    3、数据集Datasets

    GeoHey公共数据

    4、 kaggle 平台

    Kaggle 是一个 数据建模 数据分析 竞赛平台。企业和研究者可在其上发布数据,统计学者和数据挖掘专家可在其上进行竞赛以产生最好的模型。这一 众包 模式依赖于这一事实,即有众多策略可以用于解决几乎所有预测建模的问题,而研究者不可能在一开始就了解什么方法对于特定问题是最为有效的。Kaggle的目标则是试图通过众包的形式来解决这一难题,进而使 数据科学 成为一场运动。( wiki )

    5、常见问题处理

    Approaching (Almost) Any Machine Learning Problem