c# 爬虫爬取商品信息

在一个小项目中,需要用到京东的所有商品ID,因此就用c#写了个简单的爬虫。 在解析HTML中没有使用正则表达式,而是借助开源项目HtmlAgilityPack解析HTML。 一、下载网页HTML 首先我们写一个公共方法用来下载网页的HTML。 在写下载HTML方法之前,我们需要去查看京东网页请求头的相关信息,在发送请求时需要用到。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 public static string DownloadHtml(string url) { string html = string.Empty; try { HttpWebRequest request = WebRequest.Create(url) as HttpWebRequest; request.Timeout = 30 * 1000; request.UserAgent = "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.106 Safari/537.36"; request.ContentType = "text/html; charset=utf-8"; using (HttpWebResponse response = request.GetResponse() as HttpWebResponse) { if (response.StatusCode == HttpStatusCode.OK) { try { StreamReader sr = new StreamReader(response.GetResponseStream(), encode); html = sr.ReadToEnd();//读取数据 sr.Close(); } catch (Exception ex) { html = null; } } } } catch (System.Net.WebException ex) { html = null; } catch (Exception ex) { html = null; } return html; }   如上代码所示,我们使用WebRequest来获取网页信息,在发送请求之前,需要先设置和京东页面一样的请求头。 以上设置的信息比较简单,但能够正常发送请求,我们也可以模拟浏览器设置cookie等等信息, 二、解析HTML 获取所有商品的信息分为两个步骤 (1)根据商品分类页面获取所有商品分类的URL (2)根据商品分类URL获取每个商品 1、获取商品分类 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 try { string html = HttpHelper.DownloadHtml(@"http://www.jd.com/allSort.aspx"); HtmlDocument doc = new HtmlDocument(); doc.LoadHtml(html); string goodClass= @"//*[@class='items']/dl/dd"; HtmlNodeCollection noneNodeList = doc.DocumentNode.SelectNodes(goodClass); foreach (var node in noneNodeList) { HtmlDocument docChild = new HtmlDocument(); docChild.LoadHtml(node.OuterHtml); string urlPath = "/dd/a"; HtmlNodeCollection list = docChild.DocumentNode.SelectNodes(urlPath); foreach (var l in list) { HtmlDocument docChild1 = new HtmlDocument(); docChild1.LoadHtml(l.OuterHtml); var sortUrl = l.Attributes["href"].Value; if (!string.IsNullOrWhiteSpace(sortUrl) && sortUrl.Contains("cat=")) { InsertSort("https:" + sortUrl); } } } } catch (Exception ex) { Console.WriteLine(ex.Message); }    上面的代码中使用到了HtmlAgilityPack来解析HTML信息,这是.NET的开源项目,开源在nuget包中下载。 (1)下载http://www.jd.com/allSort.aspx的html页,然后加载到HtmlDocument (2)选择节点,获取每个大类的节点集合 (3)根据每个大类的节点,获取每个小类的节点信息,然后获取到分类地址 节点中也包含了其它很多信息,可以根据自己的需求去获取对应的信息 2、获取具体商品信息   (1)首先根据商品分类加载分类信息,获取到当前分类每个页面的链接 下载HTML之后,选择节点,可以将HTML格式化之后查看每个页面的url地址和拼接规则,然后借助HtmlAgilityPack 来筛选需要的节点,将每个页面的url分离出来 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 try { string html = HttpHelper.DownloadHtml(@"https://list.jd.com/list.html?cat=1620,11158,11964"); HtmlDocument productDoc = new HtmlDocument(); productDoc.LoadHtml(html); HtmlNode pageNode = productDoc.DocumentNode.SelectSingleNode(@"//*[@id='J_topPage']/span/i"); if (pageNode != null) { int pageNum = Convert.ToInt32(pageNode.InnerText); for (int i = 1; i < pageNum + 1; i++) { string pageUrl = string.Format("{0}&page={1}", category.Url, i).Replace("&page=1&", string.Format("&page={0}&", i)); try { List proDuctInfo = GetPageProduct(pageUrl); } catch (Exception ex) { Console.WriteLine(ex.Message); } } } } catch (Exception ex) { Console.WriteLine(ex.Message); } (2)根据每个页面的链接,获取当前页面的商品信息 下载每个页面的所有商品信息,需要获取的商品信息在页面中都能找到 首先我们获取到每个商品的节点集合,获取到一个商品的节点信息之后,分析html数据, 找到我们需要的商品的信息所在的位置,然后将需要的信息分离出来。 下面的代码中我获取到的商品的id和title还有价格。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 List productInfoList = new List(); try { string html = HttpHelper.DownloadHtml(url); HtmlDocument doc = new HtmlDocument(); doc.LoadHtml(html); HtmlNodeCollection productNodeList = doc.DocumentNode.SelectNodes("//*[@id='plist']/ul/li"); if (productNodeList == null || productNodeList.Count == 0) { return productInfoList; } foreach (var node in productNodeList) { HtmlDocument docChild = new HtmlDocument(); docChild.LoadHtml(node.OuterHtml); ProductInfo productInfo = new ProductInfo() { CategoryId = category.Id }; HtmlNode urlNode = docChild.DocumentNode.SelectSingleNode("//*[@class='p-name']/a"); if (urlNode == null) { continue; } string newUrl= urlNode.Attributes["href"].Value; newUrl = !newUrl.StartsWith("http:")?"http:" + newUrl: newUrl; string sId = Path.GetFileName(newUrl).Replace(".html", ""); productInfo.ProductId = long.Parse(sId); HtmlNode titleNode = docChild.DocumentNode.SelectSingleNode("//*[@class='p-name']/a/em"); if (titleNode == null) { continue; } productInfo.Title = titleNode.InnerText; HtmlNode priceNode = docChild.DocumentNode.SelectSingleNode("//*[@class='p-price']/strong/i"); if (priceNode == null) { continue; } else { } productInfoList.Add(productInfo); } //批量获取价格 GetGoodsPrice(productInfoList); } catch (Exception ex) { } return productInfoList; 商品的图片地址和价格信息的获取需要仔细分析html中的数据,然后找到规律,比如价格在每个节点中就不能单独获取。 以下为批量获取价格的代码: 复制代码 try { StringBuilder sb = new StringBuilder(); sb.AppendFormat("http://p.3.cn/prices/mgets?callback=jQuery1069298&type=1&area=1_72_4137_0&skuIds={0}&pdbp=0&pdtk=&pdpin=&pduid=1945966343&_=1469022843655", string.Join("%2C", productInfoList.Select(c => string.Format("J_{0}", c.ProductId)))); string html = HttpHelper.DownloadHtml(sb.ToString()); if (string.IsNullOrWhiteSpace(html)) { return productInfoList; } html = html.Substring(html.IndexOf("(") + 1); html = html.Substring(0, html.LastIndexOf(")")); List priceList = JsonConvert.DeserializeObject>(html); productInfoList.ForEach(c => c.Price = priceList.FirstOrDefault(p => p.id.Equals(string.Format("J_{0}", c.ProductId))).p); } catch (Exception ex) { Console.WriteLine(ex.Message); } return productInfoList; 复制代码 以上就是一个简单的爬取京东商品信息的爬虫,也可以根据自己的需求去解析更多的数据出来。https://www.cnblogs.com/xxue/p/9977801.html
50000+
5万行代码练就真实本领
17年
创办于2008年老牌培训机构
1000+
合作企业
98%
就业率

联系我们

电话咨询

0532-85025005

扫码添加微信