通用抓取API更新:更丰富的响应格式以提升开发者体验!

Senior Web Scraping Engineer
在现代网络数据抓取场景中,仅仅检索HTML页面往往不能满足在面对复杂反抓取机制时的业务需求。在Scrapeless,我们始终致力于从开发者的角度提升我们的产品能力。
今天,我们很高兴地宣布对Scrapeless的核心服务之一——通用抓取API进行重大更新。Web Unlocker现在支持多种响应格式!此增强显著提升了API的灵活性,为企业用户和开发者提供了更适应和高效的数据抓取体验。
我们为什么进行更新?
之前,通用抓取API默认返回HTML页面内容,这对于快速访问未加密页面或反抓取措施较弱的网站非常有效。然而,随着用户对自动化需求的增长,我们观察到许多用户在获取HTML后仍需手动处理数据结构、清理内容和提取元素——这增加了不必要的开发开销。我们能否简化这一过程,通过一步交付经过预处理的内容?
现在你可以!
我们重新设计了响应逻辑。通过配置response_type
参数,开发者可以灵活指定所需数据格式。无论你需要原始HTML、纯文本还是结构化元数据,只需简单的参数配置即可实现。
现在,你可以获取的响应格式:
目前支持的格式包括但不限于:
- JSON输出过滤器:使用
outputs
参数过滤JSON格式的数据。允许的过滤类型包括email
、phone_numbers
、headings
及其他9种,以结构化JSON格式返回结果。 - 多种返回格式:除了JSON过滤外,你还可以通过在请求中添加
response_type
参数来直接指定响应格式(例如,response_type=plaintext
)。
目前支持的格式包括:
HTML
:以HTML格式提取页面内容(适用于静态页面)。Plaintext
:以纯文本形式返回抓取的内容,去除HTML标签或Markdown格式——非常适合文本处理或分析。Markdown
:以Markdown格式提取页面内容(适合静态基于Markdown的页面),便于阅读和处理。PNG/JPEG
:通过设置response_type=png
,截取目标页面的屏幕截图并以PNG或JPEG格式返回(支持全页截图选项)。
注意:默认的response_type是html。
让我们看看示例
1. JSON返回值过滤:
你可以使用outputs
参数过滤JSON格式的数据。一旦设置此参数,响应类型将固定为JSON。
该参数接受以逗号分隔的过滤名称列表,并以结构化JSON格式返回数据。支持的过滤类型包括:phone_numbers
、headings
、images
、audios
、videos
、links
、menus
、hashtags
、emails
、metadata
、tables
和favicon
。
以下示例代码演示如何获取scrapeless网站首页上的所有图像信息:
Javascript
JavaScript
const axios = require('axios');
const fs = require('fs');
(async () => {
const payload = {
actor: "unlocker.webunlocker",
input: {
url: "https://www.scrapeless.com",
js_render: true,
outputs: "images"
},
proxy: {
country: "ANY"
}
};
const response = await axios.post("https://api.scrapeless.com/api/v1/unlocker/request", payload, {
headers: {
"x-api-token": "API Key",
"Content-Type": "application/json"
},
timeout: 60000
});
if (response.data?.code === 200) {
fs.writeFileSync('outputs.json', response.data.data, 'utf8');
}
})();
Python
Python
import requests
payload = {
"actor": "unlocker.webunlocker",
"input": {
"url": "https://www.scrapeless.com",
"js_render": True,
"outputs": "images",
},
"proxy": {
"country": "ANY"
}
}
response = requests.post(
"https://api.scrapeless.com/api/v1/unlocker/request",
json=payload,
headers={
"x-api-token": "API Key",
"Content-Type": "application/json"
},
timeout=60
)
if response.json()["code"] == 200:
with open('outputs.json', 'w', encoding='utf-8') as f:
f.write(response.json()["data"])
- 结果:
JSON
{
"images": [
"data:image/svg+xml;base64,PHN2ZyBzdHJva2U9IiNGRkZGRkYiIGZpbGw9IiNGRkZGRkYiIHN0cm9rZS13aWR0aD0iMCIgdmlld0JveD0iMCAwIDI0IDI0IiBoZWlnaHQ9IjIwMHB4IiB3aWR0aD0iMjAwcHgiIHhtbG5zPSJodHRwOi8vd3d3LnczLm9yZy8yMDAwL3N2ZyI+PHJlY3Qgd2lkdGg9IjIwIiBoZWlnaHQ9IjIwIiB4PSIyIiB5PSIyIiBmaWxsPSJub25lIiBzdHJva2Utd2lkdGg9IjIiIHJ4PSIyIj48L3JlY3Q+PC9zdmc+Cg==",
"https://www.scrapeless.com/_next/image?url=%2Fassets%2Fimages%2Fcode%2Fcode-l.jpg&w=3840&q=75",
```plaintext
"https://www.scrapeless.com/_next/image?url=%2Fassets%2Fimages%2Fregulate-compliance.png&w=640&q=75",
"https://www.scrapeless.com/_next/image?url=https%3A%2F%2Fassets.scrapeless.com%2Fprod%2Fimages%2Fauthor-avatars%2Falex-johnson.png&w=48&q=75",
"https://www.scrapeless.com/_next/image?url=https%3A%2F%2Fassets.scrapeless.com%2Fprod%2Fposts%2Fdeep-serp-api-online%2Fd723e1e516e3dd956ba31c9671cde8ea.jpeg&w=3840&q=75",
"https://www.scrapeless.com/_next/image?url=https%3A%2F%2Fassets.scrapeless.com%2Fprod%2Fposts%2Fscrapeless-web-scraping-toolkit%2Fac20e5f6aaec5c78c5076cb254c2eb78.png&w=3840&q=75",
"https://www.scrapeless.com/_next/image?url=https%3A%2F%2Fassets.scrapeless.com%2Fprod%2Fimages%2Fauthor-avatars%2Femily-chen.png&w=48&q=75",
"https://www.scrapeless.com/_next/image?url=https%3A%2F%2Fassets.scrapeless.com%2Fprod%2Fposts%2Fgoogle-shopping-scrape%2F251f14aedd946d0918d29ef710a1b385.png&w=3840&q=75"
Plain Text
# Scrapeless API
## 文档
- 抓取浏览器 [CDP API](https://apidocs.scrapeless.com/doc-801748.md):
- 抓取 API > shopee [Actor List](https://apidocs.scrapeless.com/doc-754333.md):
- 抓取 API > amazon [API 参数](https://apidocs.scrapeless.com/doc-857373.md):
- 抓取 API > google 搜索 [API 参数](https://apidocs.scrapeless.com/doc-800321.md):
- 抓取 API > google 趋势 [API 参数](https://apidocs.scrapeless.com/doc-796980.md):
- 抓取 API > google 航班 [API 参数](https://apidocs.scrapeless.com/doc-796979.md):
- 抓取 API > google 航班图表 [API 参数](https://apidocs.scrapeless.com/doc-908741.md):
- 抓取 API > google 地图 [API 参数(谷歌地图)](https://apidocs.scrapeless.com/doc-834792.md):
- 抓取 API > google 地图 [API 参数(谷歌地图自动完成)](https://apidocs.scrapeless.com/doc-834799.md):
- 抓取 API > google 地图 [API 参数(谷歌地图贡献者评论)](https://apidocs.scrapeless.com/doc-834806.md):
- 抓取 API > google 地图 [API 参数(谷歌地图路线)](https://apidocs.scrapeless.com/doc-834821.md):
- 抓取 API > google 地图 [API 参数(谷歌地图评论)](https://apidocs.scrapeless.com/doc-834831.md):
- 抓取 API > google 学术 [API 参数(谷歌学术)](https://apidocs.scrapeless.com/doc-842638.md):
- 抓取 API > google 学术 [API 参数(谷歌学术作者)](https://apidocs.scrapeless.com/doc-842645.md):
- 抓取 API > google 学术 [API 参数(谷歌学术引用)](https://apidocs.scrapeless.com/doc-842647.md):
- 抓取 API > google 学术 [API 参数(谷歌学术个人资料)](https://apidocs.scrapeless.com/doc-842649.md):
- 抓取 API > google 职位 [API 参数](https://apidocs.scrapeless.com/doc-850038.md):
- 抓取 API > google 购物 [API 参数](https://apidocs.scrapeless.com/doc-853695.md):
- 抓取 API > google 酒店 [API 参数](https://apidocs.scrapeless.com/doc-865231.md):
- 抓取 API > google 酒店 [支持的 Google 假日租赁物业类型](https://apidocs.scrapeless.com/doc-890578.md):
- 抓取 API > google 酒店 [支持的 Google 酒店物业类型](https://apidocs.scrapeless.com/doc-890580.md):
- 抓取 API > google 酒店 [支持的 Google 假日租赁设施](https://apidocs.scrapeless.com/doc-890623.md):
- 抓取 API > google 酒店 [支持的 Google 酒店设施](https://apidocs.scrapeless.com/doc-890631.md):
- 抓取 API > google 新闻 [API 参数](https://apidocs.scrapeless.com/doc-866643.md):
- 抓取 API > google 镜头 [API 参数](https://apidocs.scrapeless.com/doc-866644.md):
- 抓取 API > google 财务 [API 参数](https://apidocs.scrapeless.com/doc-873763.md):
- 抓取 API > google 产品 [API 参数](https://apidocs.scrapeless.com/doc-880407.md):
- 抓取 API [google play 商店](https://apidocs.scrapeless.com/folder-3277506.md):
- 抓取 API > google play 商店 [API 参数](https://apidocs.scrapeless.com/doc-882690.md):
- 抓取 API > google play 商店 [支持的 Google Play 类别](https://apidocs.scrapeless.com/doc-882822.md):
- 抓取 API > google 广告 [API 参数](https://apidocs.scrapeless.com/doc-881439.md):
- 通用抓取 API [JS 渲染文档](https://apidocs.scrapeless.com/doc-801406.md):
## API 文档
- 用户 [获取用户信息](https://apidocs.scrapeless.com/api-11949851.md): 检索关于当前认证用户的基本信息,包括他们的账户余额和订阅计划详情。
- 抓取浏览器 [连接](https://apidocs.scrapeless.com/api-11949901.md):
- 抓取浏览器 [正在运行的会话](https://apidocs.scrapeless.com/api-16890953.md): 获取所有正在运行的会话
- 抓取浏览器 [实时 URL](https://apidocs.scrapeless.com/api-16891208.md): 通过会话任务 ID 获取正在运行会话的实时 URL
- 抓取 API > shopee [Shopee 产品](https://apidocs.scrapeless.com/api-11953650.md):
- 抓取 API > shopee [Shopee 搜索](https://apidocs.scrapeless.com/api-11954010.md):
- 抓取 API > shopee [Shopee Rcmd](https://apidocs.scrapeless.com/api-11954111.md):
- 抓取 API > br 网站 [Solucoes cnpjreva](https://apidocs.scrapeless.com/api-11954435.md): 目标 URL `https://solucoes.receita.fazenda.gov.br/servicos/cnpjreva/valida_recaptcha.asp`
- 抓取 API > br 网站 [Solucoes certidaointernet](https://apidocs.scrapeless.com/api-12160439.md): 目标 URL `https://solucoes.receita.fazenda.gov.br/Servicos/certidaointernet/pj/emitir`
- 抓取 API > 巴西网站 [Servicos receita](https://apidocs.scrapeless.com/api-11954437.md): 目标网址 `https://servicos.receita.fazenda.gov.br/servicos/cpf/consultasituacao/ConsultaPublica.asp`
- 抓取 API > 巴西网站 [Consopt](https://apidocs.scrapeless.com/api-11954723.md): 目标网址 `https://consopt.www8.receita.fazenda.gov.br/consultaoptantes`
- 抓取 API > 亚马逊 [产品](https://apidocs.scrapeless.com/api-12554367.md):
- 抓取 API > 亚马逊 [卖家](https://apidocs.scrapeless.com/api-12554368.md):
- 抓取 API > 亚马逊 [关键词](https://apidocs.scrapeless.com/api-12554373.md):
- 抓取 API > 谷歌搜索 [谷歌搜索](https://apidocs.scrapeless.com/api-12919045.md):
- 抓取 API > 谷歌搜索 [谷歌图片](https://apidocs.scrapeless.com/api-16888104.md):
- 抓取 API > 谷歌搜索 [谷歌本地](https://apidocs.scrapeless.com/api-16890459.md):
- 抓取 API > 谷歌趋势 [自动补全](https://apidocs.scrapeless.com/api-12730912.md):
- 抓取 API > 谷歌趋势 [时间段兴趣](https://apidocs.scrapeless.com/api-12731035.md):
- 抓取 API > 谷歌趋势 [按地区比较的兴趣](https://apidocs.scrapeless.com/api-12731046.md):
- 抓取 API > 谷歌趋势 [按子地区兴趣](https://apidocs.scrapeless.com/api-12731059.md):
- 抓取 API > 谷歌趋势 [相关查询](https://apidocs.scrapeless.com/api-12731060.md):
- 抓取 API > 谷歌趋势 [相关主题](https://apidocs.scrapeless.com/api-12731091.md):
- 抓取 API > 谷歌趋势 [当前趋势](https://apidocs.scrapeless.com/api-16315096.md):
- 抓取 API > 谷歌航班 [往返](https://apidocs.scrapeless.com/api-12798120.md):
- 抓取 API > 谷歌航班 [单程](https://apidocs.scrapeless.com/api-12798122.md):
- 抓取 API > 谷歌航班 [多城市](https://apidocs.scrapeless.com/api-12798127.md):
- 抓取 API > 谷歌航班图表 [图表](https://apidocs.scrapeless.com/api-15419356.md):
- 抓取 API > 谷歌地图 [谷歌地图](https://apidocs.scrapeless.com/api-13727737.md):
- 抓取 API > 谷歌地图 [谷歌地图自动补全](https://apidocs.scrapeless.com/api-13728055.md):
- 抓取 API > 谷歌地图 [谷歌地图贡献者评论](https://apidocs.scrapeless.com/api-13728193.md):
- 抓取 API > 谷歌地图 [谷歌地图方向](https://apidocs.scrapeless.com/api-13728584.md):
- 抓取 API > 谷歌地图 [谷歌地图评论](https://apidocs.scrapeless.com/api-13728997.md):
- 抓取 API > 谷歌学术 [谷歌学术](https://apidocs.scrapeless.com/api-13922772.md):
- 抓取 API > 谷歌学术 [谷歌学术作者](https://apidocs.scrapeless.com/api-13923148.md):
- 抓取 API > 谷歌学术 [谷歌学术引用](https://apidocs.scrapeless.com/api-13923179.md):
- 抓取 API > 谷歌学术 [谷歌学术个人资料](https://apidocs.scrapeless.com/api-13923189.md):
- 抓取 API > 谷歌工作 [谷歌工作](https://apidocs.scrapeless.com/api-14029711.md):
- 抓取 API > 谷歌购物 [谷歌购物](https://apidocs.scrapeless.com/api-14111890.md):
- 抓取 API > 谷歌酒店 [谷歌酒店](https://apidocs.scrapeless.com/api-14516185.md):
- 抓取 API > 谷歌新闻 [谷歌新闻](https://apidocs.scrapeless.com/api-14581677.md):
- 抓取 API > 谷歌镜头 [谷歌镜头](https://apidocs.scrapeless.com/api-14581678.md):
- 抓取 API > 谷歌财经 [谷歌财经](https://apidocs.scrapeless.com/api-14757813.md):
- 抓取 API > 谷歌财经 [谷歌财经市场](https://apidocs.scrapeless.com/api-14815971.md):
- 抓取 API > 谷歌产品 [谷歌产品](https://apidocs.scrapeless.com/api-14946686.md):
- 抓取 API > 谷歌 Play 商店 [谷歌 Play 游戏](https://apidocs.scrapeless.com/api-15020703.md):
- 抓取 API > 谷歌 Play 商店 [谷歌 Play 图书](https://apidocs.scrapeless.com/api-15020704.md):
- 抓取 API > 谷歌 Play 商店 [谷歌 Play 电影](https://apidocs.scrapeless.com/api-15020705.md):
- 抓取 API > 谷歌 Play 商店 [谷歌 Play 产品](https://apidocs.scrapeless.com/api-15020707.md):
- 抓取 API > 谷歌 Play 商店 [谷歌 Play 应用](https://apidocs.scrapeless.com/api-15020056.md):
- 抓取 API > 谷歌广告 [谷歌广告](https://apidocs.scrapeless.com/api-14981770.md):
- 抓取 API [抓取请求](https://apidocs.scrapeless.com/api-11949852.md):
- 抓取 API [抓取获取结果](https://apidocs.scrapeless.com/api-11949853.md):
- 通用抓取 API [JS 渲染](https://apidocs.scrapeless.com/api-12948840.md):
- 通用抓取 API [网页解锁器](https://apidocs.scrapeless.com/api-11949854.md):
- 通用抓取 API [Akamaiweb Cookie](https://apidocs.scrapeless.com/api-11949855.md):
- 通用抓取 API [Akamaiweb Sensor](https://apidocs.scrapeless.com/api-11949856.md):
- 爬虫 > 抓取 [抓取单个 URL](https://apidocs.scrapeless.com/api-17509002.md):
- 爬虫 > 抓取 [抓取多个URL](https://apidocs.scrapeless.com/api-17509003.md):
- 爬虫 > 抓取 [取消批量抓取任务](https://apidocs.scrapeless.com/api-17509005.md):
- 爬虫 > 抓取 [获取抓取状态](https://apidocs.scrapeless.com/api-17644667.md):
- 爬虫 > 抓取 [获取批量抓取任务状态](https://apidocs.scrapeless.com/api-17509004.md):
- 爬虫 > 抓取 [获取批量抓取任务的错误信息](https://apidocs.scrapeless.com/api-17509006.md):
- 爬虫 > 爬取 [基于选项的多个URL爬取](https://apidocs.scrapeless.com/api-17509010.md):
- 爬虫 > 爬取 [取消爬取任务](https://apidocs.scrapeless.com/api-17509008.md):
- 爬虫 > 爬取 [获取爬取任务状态](https://apidocs.scrapeless.com/api-17509007.md):
- 爬虫 > 爬取 [获取爬取任务的错误信息](https://apidocs.scrapeless.com/api-17509009.md):
- 公共 [Actor 状态](https://apidocs.scrapeless.com/api-12408851.md):
- 公共 [Actor 状态](https://apidocs.scrapeless.com/api-12409228.md):
4. Markdown
通过在请求参数中添加 response_type=markdown
,Scrapeless通用抓取API将以Markdown格式返回特定页面的内容。
以下示例显示了 抓取浏览器快速入门页面 的Markdown效果。我们首先使用页面检查获得表格的CSS选择器。

在此示例中,我们获得的CSS选择器是:#__next > div:nth-child(3) > div._mx-auto._flex._max-w-\[90rem\] > article > main > table
。以下是完整的示例代码。
JavaScript
JavaScript
const axios = require('axios');
const fs = require('fs');
(async () => {
const payload = {
actor: "unlocker.webunlocker",
input: {
url: "https://docs.scrapeless.com/en/scraping-browser/quickstart/getting-started",
js_render: true,
response_type: "markdown",
selector: "#__next > div:nth-child(3) > div._mx-auto._flex._max-w-\[90rem\] > article > main > table", // 页面表格元素的CSS选择器
},
proxy: {
country: "ANY"
}
};
const response = await axios.post("https://api.scrapeless.com/api/v1/unlocker/request", payload, {
headers: {
"x-api-token": "API Key",
"Content-Type": "application/json"
},
timeout: 60000
});
if (response.data?.code === 200) {
fs.writeFileSync('response.md', response.data.data, 'utf8');
}
})();
Python
Python
import requests
payload = {
"actor": "unlocker.webunlocker",
"input": {
"url": "https://docs.scrapeless.com/en/scraping-browser/quickstart/getting-started",
"js_render": True,
"response_type": "markdown",
"selector": "#__next > div:nth-child(3) > div._mx-auto._flex._max-w-\[90rem\] > article > main > table", # 页面表格元素的CSS选择器
},
"proxy": {
"country": "ANY"
}
}
response = requests.post(
"https://api.scrapeless.com/api/v1/unlocker/request",
json=payload,
headers={
"x-api-token": "API Key",
"Content-Type": "application/json"
},
timeout=60
)
if response.json()["code"] == 200:
with open('response.md', 'w', encoding='utf-8') as f:
f.write(response.json()["data"])
抓取的表格Markdown文本显示:
Markdown
| 参数名称 | 类型 | 描述 |
| --- | --- | --- |
| token | 字符串 | 在控制面板中生成的API密钥。 |
| session_ttl | 数字 | 控制会话持续时间,并在超时后自动关闭浏览器实例。以秒为单位(s),默认值为180秒(3分钟),可自定义介于60秒(1分钟)和900秒之间(建议最大15分钟,但可以设置更长时间)。一旦达到指定的TTL,会话将过期,抓取浏览器将关闭浏览器实例以释放资源。 |
| session_name | 字符串 | 为会话设置一个名称,以便在历史会话列表中进行查找和查看。 |
| session_recording | 布尔值 | 是否启用会话录制。启用后,整个浏览器会话执行过程将自动录制,会话完成后,可以在历史会话列表详细信息中重放和查看。默认值为false。 |
| proxy_url | 字符串 | 用于设置浏览器的代理URL,例如:http://user:pass@ip:port。如果设置了此参数,则所有其他proxy_*参数将被忽略。- 💡自定义代理功能目前仅向企业和企业增强订阅用户开放 立即升级- 💡企业级自定义用户可以联系我方使用自定义代理。 |
| proxy_country | 字符串 | 设置代理的目标国家/地区,通过该地区的IP地址发送请求。您可以指定国家代码(例如,美国使用US,英国使用GB,ANY表示任何国家)。有关所有支持选项,请参阅国家代码。 |
| fingerprint | 字符串 | 浏览器指纹是通过您的浏览器和设备配置创建的几乎唯一的“数字指纹”,可用于在没有cookie的情况下跟踪您的在线活动。幸运的是,在Scraping Browser中配置指纹是可选的。我们提供对浏览器指纹的深度定制,例如浏览器用户代理、时区、语言和屏幕分辨率等核心参数,并支持通过自定义启动参数扩展功能。适用于多账户管理、数据收集和隐私保护场景,使用scrapeless自己的Chromium浏览器可以完全避免检测。默认情况下,我们的Scraping Browser服务为每个会话生成一个随机指纹。参考 |
5. PNG/JPEG
通过在请求中添加response_type=png,您可以捕获目标页面的屏幕截图并返回png或jpeg图像。当响应结果设置为png或jpeg时,您可以使用response_image_full_page=true
参数设置是否返回结果为全屏。该参数的默认值为false。
下面的代码示例展示了如何获取Scrapeless主页上指定区域的屏幕截图。首先,我们找到要捕获图像的区域的CSS选择器。

以下是拦截代码:
Javascript
JavaScript
const axios = require('axios');
const fs = require('fs');
(async () => {
const payload = {
actor: "unlocker.webunlocker",
input: {
url: "https://www.scrapeless.com/en",
js_render: true,
response_type: "png",
selector: "body > main > div > section > div > div.banner.px-web-gap-5.py-web-gap-10.flex.flex-col.border-b.border-\(--web-landing-stroke-3-primary\)", // 页面表格元素的CSS选择器
},
proxy: {
country: "ANY"
}
};
const response = await axios.post("https://api.scrapeless.com/api/v1/unlocker/request", payload, {
headers: {
"x-api-token": "API密钥",
"Content-Type": "application/json"
},
timeout: 60000
});
if (response.data?.code === 200) {
fs.writeFileSync('response.png',Buffer.from(response.data.data, 'base64'));
}
})();
Python
Python
import requests
payload = {
"actor": "unlocker.webunlocker",
"input": {
"url": "https://www.scrapeless.com/en",
"js_render": True,
"response_type": "png",
"selector": "body > main > div > section > div > div.banner.px-web-gap-5.py-web-gap-10.flex.flex-col.border-b.border-\(--web-landing-stroke-3-primary\)", # 页面表格元素的CSS选择器
},
"proxy": {
"country": "ANY"
}
}
response = requests.post(
"https://api.scrapeless.com/api/v1/unlocker/request",
json=payload,
headers={
"x-api-token": "API密钥",
"Content-Type": "application/json"
},
timeout=60
)
if response.json()["code"] == 200:
with open('response.png', 'wb') as f:
content = base64.b64decode(response.json()["data"])
f.write(content)
- PNG返回结果:

👉 访问 Scrapeless 文档 了解更多信息
👉 立即查看API文档:JS Render
使用场景充分覆盖
此更新特别适合于:
- 内容提取应用(例如摘要生成、情报收集)
- SEO数据抓取(例如元数据、结构化数据分析)
- 新闻聚合平台(快速提取文本和作者)
- 链接分析和监测工具(提取href、nofollow信息)
无论您是想快速抓取文本还是想要结构化数据,这次更新都能帮助您以更少的努力获得更多结果。
立即体验
该功能已经在Scrapeless全面推出。无需额外授权或升级计划。只需限制输出参数或传入response_type参数即可体验新的数据返回格式!
Scrapeless始终致力于构建一个智能、稳定且易于使用的网络数据平台。 这次更新只是向前迈进的又一步。欢迎您的体验和反馈,让我们共同简化网络数据采集。
📣 加入社区,第一时间获得更新和实用技巧!
在Scrapeless,我们仅访问公开可用的数据,并严格遵循适用的法律、法规和网站隐私政策。本博客中的内容仅供演示之用,不涉及任何非法或侵权活动。我们对使用本博客或第三方链接中的信息不做任何保证,并免除所有责任。在进行任何抓取活动之前,请咨询您的法律顾问,并审查目标网站的服务条款或获取必要的许可。