Python爬虫如何避免html中的延迟加载部分(delayload_url)

Python爬虫如何处理html中的延迟加载部分(delayload_url)
下载链接“http://s.1688.com/selloffer/industry_offer_search.htm?mixWholesale=true&industryFlag=food&categoryId=1032913&from=industrySearch&n=y&filt=y#_fb_top”的源码,结果只包含了页面的一部分内容;该页面共60个商品,但源码中只能解析出20个,且无法找到翻页链接;

<div id="sw_delayload_url" class="sw-delayload-url" data-mod-config='{"url":"http://s.1688.com/selloffer/rpc_offer_search.jsonp?pageSize=60&from=marketSearch&beginPage=2&keywords=%B2%A3%C1%A7%B9%A4%D2%D5%C6%B7&async=true&asyncCount=20&startIndex=20&qrwRedirectEnabled=false&offset=2&isWideScreen=false&controls=_template_%3Aofferresult%2Cshopwindow%2CshopwindowOfferResult.vm%7C_moduleConfig_%3AshopwindowResultConfig%7CpageSize%3A60%7C_name_%3AofferResult%7Coffset%3A2&token=3937888307", "asyncLoadSize":20, "startIndex":20, "containerId":"sw_maindata_asyncload" }'>
 </div>
应该是以上一段源码实现的延迟加载,在该页面滑轮下拉到底时,才载入新的部分;求教如何解析该页面,获取完整的页面源码,解析全部60个商品和翻页链接。
------解决思路----------------------
虽然不会,但是还是顶一个
------解决思路----------------------
审核元素找到数据源链接直接用那个链接获取数据