python 抓取新浪网页时,有时得不到HTML代码

python 抓取新浪网页时,有时候得不到HTML代码
程序如下:
url = "http://tech.sina.com.cn/";
    headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'}
    request= urllib2.Request(url,headers=headers);
    resp = urllib2.urlopen(request);
    respHtml = resp.read();
    print "respHtml=",respHtml; 

有的时候,可以得到网页的HTML代码,但是有的时候却不能,结果如图
python 抓取新浪网页时,有时得不到HTML代码
请问这是为什么,难道是我调试程序太频繁,新浪不允许?
------解决方案--------------------
应该是你模拟的浏览器行为不够,使用工具看看浏览器访问的时候发送的header,自己构造
------解决方案--------------------
访问可以设置超时吧,超过多长时间没有响应,可以循环几次获取,看见成功获取标志即可
------解决方案--------------------
新浪tech我没爬过,但blog和weibo爬过,我这边100M光纤也不能保证一次抓完,通常都要目测鉴别一下
特别是我这边ISP DNS超负荷,时不时404很“正常”,几乎所有网络节点都可能引起你说的问题
如果你确认其他(超过30个以上)网站没问题,就只有新浪有问题,可以从cookies入手检查