🎯 Um navegador em nuvem personalizável e anti-detecção alimentado por Chromium desenvolvido internamente, projetado para rastreadores web e agentes de IA. 👉Experimente agora
De volta ao blog

Quais parâmetros de resposta você pode obter no Scrapeless?

Alex Johnson
Alex Johnson

Senior Web Scraping Engineer

12-Jun-2025

Em cenários modernos de extração de dados da web, simplesmente recuperar páginas HTML muitas vezes não é suficiente para atender às necessidades comerciais ao enfrentar mecanismos sofisticados de contra-raspagem. Na Scrapeless, permanecemos comprometidos em elevar as capacidades do nosso produto a partir da perspectiva do desenvolvedor.

Hoje, estamos entusiasmados em anunciar uma grande atualização em um dos serviços principais da Scrapeless — a API Universal de Extração. O Web Unlocker agora suporta múltiplos formatos de resposta! Essa melhoria aumenta significativamente a flexibilidade da API, proporcionando uma experiência de extração de dados mais adaptável e eficiente para usuários empresariais e desenvolvedores.

Por Que Fazemos uma Atualização?

Anteriormente, a API Universal de Extração retornava por padrão o conteúdo da página HTML, que funcionava bem para acessar rapidamente páginas não criptografadas ou sites com medidas de contra-raspagem mais fracas. No entanto, à medida que as demandas dos usuários por automação cresceram, observamos que muitos usuários ainda precisavam processar manualmente estruturas de dados, limpar conteúdo e extrair elementos após obter o HTML — adicionando uma sobrecarga de desenvolvimento desnecessária. Poderíamos simplificar esse processo para fornecer conteúdo pré-processado em um único passo?

Agora você pode!

Reformulamos a lógica de resposta. Ao configurar o parâmetro response_type, os desenvolvedores podem especificar flexivelmente o formato de dados desejado. Se você precisa de HTML bruto, texto simples ou metadados estruturados, uma simples configuração de parâmetro é tudo o que é necessário.

Agora, Formatos de Resposta Que Você Pode Obter:

Os formatos atualmente suportados incluem, mas não se limitam a:

  1. Filtros de saída JSON: Use o parâmetro outputs para filtrar dados formatados em JSON. Os tipos de filtro permitidos incluem email, phone_numbers, headings e 9 outros, com os resultados retornados em JSON estruturado.
  2. Vários formatos de retorno: Além da filtragem JSON, você pode especificar diretamente o formato de resposta adicionando o parâmetro response_type à sua solicitação (por exemplo, response_type=plaintext).
    Os formatos atualmente suportados incluem:
  • HTML: Extrai o conteúdo da página em formato HTML (ideal para páginas estáticas).
  • Plaintext: Retorna o conteúdo extraído como texto simples, livre de tags HTML ou formatação Markdown — perfeito para processamento ou análise de texto.
  • Markdown: Extrai o conteúdo da página em formato Markdown (ideal para páginas estáticas baseadas em Markdown), facilitando a leitura e o processamento.
  • PNG/JPEG: Ao definir response_type=png, captura uma captura de tela da página alvo e a retorna em formato PNG ou JPEG (com opções para capturas de tela de página inteira).

Nota: O response_type padrão é html.


Vamos Ver Exemplos

1. Filtragem de valor de retorno JSON:

Você pode usar o parâmetro outputs para filtrar dados em formato JSON. Uma vez que este parâmetro é definido, o tipo de resposta será fixo em JSON.

O parâmetro aceita uma lista de nomes de filtro separados por vírgulas e retorna os dados em formato JSON estruturado. Os tipos de filtro suportados incluem: phone_numbers, headings, images, audios, videos, links, menus, hashtags, emails, metadata, tables e favicon.

O seguinte código de exemplo demonstra como obter todas as informações de imagem na página inicial do site scrapeless:

JavaScript

JavaScript Copy
const axios = require('axios');
const fs = require('fs');

(async () => {
    const payload = {
        actor: "unlocker.webunlocker",
        input: {
            url: "https://www.scrapeless.com",
            js_render: true,
            outputs: "images"
        },
        proxy: {
            country: "ANY"
        }
    };

    const response = await axios.post("https://api.scrapeless.com/api/v1/unlocker/request", payload, {
        headers: {
            "x-api-token": "API Key",
            "Content-Type": "application/json"
        },
        timeout: 60000
    });

    if (response.data?.code === 200) {
        fs.writeFileSync('outputs.json', response.data.data, 'utf8');
    }
})();

Python

Python Copy
import requests

payload = {
    "actor": "unlocker.webunlocker",
    "input": {
        "url": "https://www.scrapeless.com",
        "js_render": True,
        "outputs": "images",
    },
    "proxy": {
        "country": "ANY"
    }
}

response = requests.post(
    "https://api.scrapeless.com/api/v1/unlocker/request",
    json=payload,
    headers={
        "x-api-token": "API Key",
        "Content-Type": "application/json"
    },
    timeout=60
)

if response.json()["code"] == 200:
    with open('outputs.json', 'w', encoding='utf-8') as f:
        f.write(response.json()["data"])
  • Resultados:
JSON Copy
{
  "images": [
    "data:image/svg+xml;base64,PHN2ZyBzdHJva2U9IiNGRkZGRkYiIGZpbGw9IiNGRkZGRkYiIHN0cm9rZS13aWR0aD0iMCIgdmlld0JveD0iMCAwIDI0IDI0IiBoZWlnaHQ9IjIwMHB4IiB3aWR0aD0iMjAwcHgiIHhtbG5zPSJodHRwOi8vd3d3LnczLm9yZy8yMDAwL3N2ZyI+PHJlY3Qgd2lkdGg9IjIwIiBoZWlnaHQ9IjIwIiB4PSIyIiB5PSIyIiBmaWxsPSJub25lIiBzdHJva2Utd2lkdGg9IjIiIHJ4PSIyIj48L3JlY3Q+PC9zdmc+Cg==",
    "https://www.scrapeless.com/_next/image?url=%2Fassets%2Fimages%2Fcode%2Fcode-l.jpg&w=3840&q=75",
plaintext Copy
"https://www.scrapeless.com/_next/image?url=%2Fassets%2Fimages%2Fregulate-compliance.png&w=640&q=75",
"https://www.scrapeless.com/_next/image?url=https%3A%2F%2Fassets.scrapeless.com%2Fprod%2Fimages%2Fauthor-avatars%2Falex-johnson.png&w=48&q=75",
"https://www.scrapeless.com/_next/image?url=https%3A%2F%2Fassets.scrapeless.com%2Fprod%2Fposts%2Fdeep-serp-api-online%2Fd723e1e516e3dd956ba31c9671cde8ea.jpeg&w=3840&q=75",
"https://www.scrapeless.com/_next/image?url=https%3A%2F%2Fassets.scrapeless.com%2Fprod%2Fposts%2Fscrapeless-web-scraping-toolkit%2Fac20e5f6aaec5c78c5076cb254c2eb78.png&w=3840&q=75",
"https://www.scrapeless.com/_next/image?url=https%3A%2F%2Fassets.scrapeless.com%2Fprod%2Fimages%2Fauthor-avatars%2Femily-chen.png&w=48&q=75",
"https://www.scrapeless.com/_next/image?url=https%3A%2F%2Fassets.scrapeless.com%2Fprod%2Fposts%2Fgoogle-shopping-scrape%2F251f14aedd946d0918d29ef710a1b385.png&w=3840&q=75"
Plain Text Copy
# API Scrapeless

## Docs
- Navegador de Scraping [API CDP](https://apidocs.scrapeless.com/doc-801748.md): 
- API de Scraping > shopee [Lista de Atores](https://apidocs.scrapeless.com/doc-754333.md): 
- API de Scraping > amazon [Parâmetros da API](https://apidocs.scrapeless.com/doc-857373.md): 
- API de Scraping > pesquisa google [Parâmetros da API](https://apidocs.scrapeless.com/doc-800321.md): 
- API de Scraping > tendências google [Parâmetros da API](https://apidocs.scrapeless.com/doc-796980.md): 
- API de Scraping > voos google [Parâmetros da API](https://apidocs.scrapeless.com/doc-796979.md): 
- API de Scraping > gráfico de voos google [Parâmetros da API](https://apidocs.scrapeless.com/doc-908741.md): 
- API de Scraping > mapas google [Parâmetros da API (Google Maps)](https://apidocs.scrapeless.com/doc-834792.md): 
- API de Scraping > mapas google [Parâmetros da API (Autocomplete do Google Maps)](https://apidocs.scrapeless.com/doc-834799.md): 
- API de Scraping > mapas google [Parâmetros da API (Avaliações de Contribuidores do Google Maps)](https://apidocs.scrapeless.com/doc-834806.md): 
- API de Scraping > mapas google [Parâmetros da API (Direções do Google Maps)](https://apidocs.scrapeless.com/doc-834821.md): 
- API de Scraping > mapas google [Parâmetros da API (Avaliações do Google Maps)](https://apidocs.scrapeless.com/doc-834831.md): 
- API de Scraping > google scholar [Parâmetros da API (Google Scholar)](https://apidocs.scrapeless.com/doc-842638.md): 
- API de Scraping > google scholar [Parâmetros da API (Autor do Google Scholar)](https://apidocs.scrapeless.com/doc-842645.md): 
- API de Scraping > google scholar [Parâmetros da API (Citação do Google Scholar)](https://apidocs.scrapeless.com/doc-842647.md): 
- API de Scraping > google scholar [Parâmetros da API (Perfis do Google Scholar)](https://apidocs.scrapeless.com/doc-842649.md): 
- API de Scraping > empregos google [Parâmetros da API](https://apidocs.scrapeless.com/doc-850038.md): 
- API de Scraping > compras google [Parâmetros da API](https://apidocs.scrapeless.com/doc-853695.md): 
- API de Scraping > hotéis google [Parâmetros da API](https://apidocs.scrapeless.com/doc-865231.md): 
- API de Scraping > hotéis google [Tipos de Propriedade de Aluguel de Férias do Google Suportados](https://apidocs.scrapeless.com/doc-890578.md): 
- API de Scraping > hotéis google [Tipos de Propriedade de Hotéis do Google Suportados](https://apidocs.scrapeless.com/doc-890580.md): 
- API de Scraping > hotéis google [Comodidades de Aluguel de Férias do Google Suportados](https://apidocs.scrapeless.com/doc-890623.md): 
- API de Scraping > hotéis google [Comodidades de Hotéis do Google Suportados](https://apidocs.scrapeless.com/doc-890631.md): 
- API de Scraping > notícias google [Parâmetros da API](https://apidocs.scrapeless.com/doc-866643.md): 
- API de Scraping > lens google [Parâmetros da API](https://apidocs.scrapeless.com/doc-866644.md): 
- API de Scraping > finanças google [Parâmetros da API](https://apidocs.scrapeless.com/doc-873763.md): 
- API de Scraping > produto google [Parâmetros da API](https://apidocs.scrapeless.com/doc-880407.md): 
- API de Scraping [loja google play](https://apidocs.scrapeless.com/folder-3277506.md): 
- API de Scraping > loja google play [Parâmetros da API](https://apidocs.scrapeless.com/doc-882690.md): 
- API de Scraping > loja google play [Categorias Suportadas do Google Play](https://apidocs.scrapeless.com/doc-882822.md): 
- API de Scraping > anúncios google [Parâmetros da API](https://apidocs.scrapeless.com/doc-881439.md): 
- API de Scraping Universal [Docs de Renderização JS](https://apidocs.scrapeless.com/doc-801406.md): 

## Docs da API
- Usuário [Obter Informações do Usuário](https://apidocs.scrapeless.com/api-11949851.md): Recupere informações básicas sobre o usuário autenticado atualmente, incluindo seu saldo de conta e detalhes do plano de assinatura.
- Navegador de Scraping [Conectar](https://apidocs.scrapeless.com/api-11949901.md): 
- Navegador de Scraping [Sessões em execução](https://apidocs.scrapeless.com/api-16890953.md): Obter todas as sessões em execução
- Navegador de Scraping [URL ao vivo](https://apidocs.scrapeless.com/api-16891208.md): Obter a URL ao vivo de uma sessão em execução pelo ID da tarefa da sessão
- API de Scraping > shopee [Produto Shopee](https://apidocs.scrapeless.com/api-11953650.md): 
- API de Scraping > shopee [Pesquisa Shopee](https://apidocs.scrapeless.com/api-11954010.md): 
- API de Scraping > shopee [Recomendação Shopee](https://apidocs.scrapeless.com/api-11954111.md): 
- API de Scraping > sites br [Soluções cnpjreva](https://apidocs.scrapeless.com/api-11954435.md): URL alvo `https://solucoes.receita.fazenda.gov.br/servicos/cnpjreva/valida_recaptcha.asp`
- API de Scraping > sites br [Soluções certidaointernet](https://apidocs.scrapeless.com/api-12160439.md): URL alvo `https://solucoes.receita.fazenda.gov.br/Servicos/certidaointernet/pj/emitir`
Copy
### 4. Markdown

Ao adicionar `response_type=markdown` nos parâmetros da solicitação, a API de Raspagem Universal Scrapeless retornará o conteúdo de uma página específica no formato Markdown.

O exemplo a seguir mostra o efeito markdown da [página de Introdução ao Raspador](https://docs.scrapeless.com/en/scraping-browser/quickstart/getting-started). Primeiro usamos a inspeção da página para obter o seletor CSS da tabela.

![Página de Introdução ao Raspador](https://assets.scrapeless.com/prod/posts/response-formats-update/c99d28d532bb44eb7e09ede40754ee09.png)

Neste exemplo, o seletor CSS que obtemos é: `#__next > div:nth-child(3) > div._mx-auto._flex._max-w-\[90rem\] > article > main > table`. A seguir está o código de exemplo completo.

> Javascript

```JavaScript
const axios = require('axios');
const fs = require('fs');

(async () => {
    const payload = {
        actor: "unlocker.webunlocker",
        input: {
            url: "https://docs.scrapeless.com/en/scraping-browser/quickstart/getting-started",
            js_render: true,
            response_type: "markdown",
            selector: "#__next > div:nth-child(3) > div._mx-auto._flex._max-w-\[90rem\] > article > main > table", // Seletor CSS do elemento da tabela da página
        },
        proxy: {
            country: "ANY"
        }
    };

    const response = await axios.post("https://api.scrapeless.com/api/v1/unlocker/request", payload, {
        headers: {
            "x-api-token": "Chave da API",
            "Content-Type": "application/json"
        },
        timeout: 60000
    });

    if (response.data?.code === 200) {
        fs.writeFileSync('response.md', response.data.data, 'utf8');
    }
})();

Python

Python Copy
import requests

payload = {
    "actor": "unlocker.webunlocker",
    "input": {
        "url": "https://docs.scrapeless.com/en/scraping-browser/quickstart/getting-started",
        "js_render": True,
        "response_type": "markdown",
        "selector": "#__next > div:nth-child(3) > div._mx-auto._flex._max-w-\[90rem\] > article > main > table", # Seletor CSS do elemento da tabela da página
    },
    "proxy": {
        "country": "ANY"
    }
}

response = requests.post(
    "https://api.scrapeless.com/api/v1/unlocker/request",
    json=payload,
    headers={
        "x-api-token": "Chave da API",
        "Content-Type": "application/json"
    },
    timeout=60
)

if response.json()["code"] == 200:
    with open('response.md', 'w', encoding='utf-8') as f:
        f.write(response.json()["data"])

Exibição do texto markdown da tabela raspada:

Markdown Copy
| Nome do Parâmetro | Tipo | Descrição |
| --- | --- | --- |
| token | string | A chave da API gerada no painel de controle. |
| session_ttl | number | Controla a duração da sessão e fecha automaticamente a instância do navegador após o tempo limite. Medido em segundos (s), padrão de 180 segundos (3 minutos), personalizável entre 60 segundos (1 minuto) e 900 segundos (15 minutos recomendado, mas tempo mais longo pode ser definido). Assim que o TTL especificado é atingido, a sessão expira e o Raspador de Páginas fechará a instância do navegador para liberar recursos. |
| session_name | string | Defina um nome para sua sessão para facilitar a busca e visualização na lista de sessões históricas. |
| session_recording | boolean | Se deve habilitar a gravação da sessão. Quando habilitado, todo o processo de execução da sessão do navegador será gravado automaticamente e, após a conclusão da sessão, poderá ser reproduzido e visto nos detalhes da lista de sessões históricas. Padrão é falso. |
| proxy_url | string | Usado para definir a URL do proxy do navegador, por exemplo: http://user:pass@ip:port. Se este parâmetro for definido, todos os outros parâmetros proxy_* serão ignorados.- 💡A funcionalidade de proxy personalizado atualmente está disponível apenas para usuários com assinatura Enterprise e Enterprise Enhanced. Atualize agora.- 💡Usuários empresariais personalizados podem entrar em contato conosco para usar proxies personalizados. |

| proxy_country | string | Define o país/região de destino para o proxy, enviando solicitações através de um endereço IP daquela região. Você pode especificar um código de país (por exemplo, US para os Estados Unidos, GB para o Reino Unido, ANY para qualquer país). Consulte os códigos de país para todas as opções suportadas. |
| fingerprint | string | Uma impressão digital de navegador é uma “impressão digital digital” quase única criada usando as informações de configuração do seu navegador e dispositivo, que pode ser usada para rastrear sua atividade online mesmo sem cookies. Felizmente, configurar impressões digitais no Scraping Browser é opcional. Oferecemos personalização profunda das impressões digitais do navegador, como parâmetros principais como agente do usuário do navegador, fuso horário, idioma e resolução da tela, e suporte para estender a funcionalidade através de parâmetros de inicialização personalizados. Adequado para gerenciamento de múltiplas contas, coleta de dados e cenários de proteção da privacidade, usar o próprio navegador Chromium da scrapeless evita completamente a detecção. Por padrão, nosso serviço Scraping Browser gera uma impressão digital aleatória para cada sessão. Referência |

Copy
### 5. PNG/JPEG
Ao adicionar response_type=png à solicitação, você pode capturar uma captura de tela da página alvo e retornar uma imagem no formato png ou jpeg. Quando o resultado da resposta é definido como png ou jpeg, você pode definir se o resultado devolvido será em tela cheia usando o parâmetro `response_image_full_page=true`. O valor padrão deste parâmetro é falso.

O seguinte exemplo de código mostra como obter uma captura de tela de uma área especificada na [página inicial do Scrapeless](https://www.scrapeless.com/?utm_source=official&utm_medium=blog&utm_campaign=response-formats-update). Primeiro, encontramos o seletor CSS para a área que queremos capturar a imagem.

![encontrar o seletor CSS](https://assets.scrapeless.com/prod/posts/response-formats-update/5390840f58d5855d9ecbf6a5c82ca24d.png)

Abaixo está o código de interceptação:
> Javascript

```JavaScript
const axios = require('axios');
const fs = require('fs');

(async () => {
    const payload = {
        actor: "unlocker.webunlocker",
        input: {
            url: "https://www.scrapeless.com/en",
            js_render: true,
            response_type: "png",
            selector: "body > main > div > section > div > div.banner.px-web-gap-5.py-web-gap-10.flex.flex-col.border-b.border-\(--web-landing-stroke-3-primary\)", // Seletor CSS do elemento da tabela da página
        },
        proxy: {
            country: "ANY"
        }
    };

    const response = await axios.post("https://api.scrapeless.com/api/v1/unlocker/request", payload, {
        headers: {
            "x-api-token": "Chave de API",
            "Content-Type": "application/json"
        },
        timeout: 60000
    });

    if (response.data?.code === 200) {
        fs.writeFileSync('response.png',Buffer.from(response.data.data, 'base64'));
    }
})(); 

Python

Python Copy
import requests
 
payload = {
    "actor": "unlocker.webunlocker",
    "input": {
        "url": "https://www.scrapeless.com/en",
        "js_render": True,
        "response_type": "png",
        "selector": "body > main > div > section > div > div.banner.px-web-gap-5.py-web-gap-10.flex.flex-col.border-b.border-\(--web-landing-stroke-3-primary\)", # Seletor CSS do elemento da tabela da página
    },
    "proxy": {
        "country": "ANY"
    }
}
 
response = requests.post(
    "https://api.scrapeless.com/api/v1/unlocker/request",
    json=payload,
    headers={
        "x-api-token": "Chave de API",
        "Content-Type": "application/json"
    },
    timeout=60
)
 
if response.json()["code"] == 200:
    with open('response.png', 'wb') as f:
        content = base64.b64decode(response.json()["data"])
        f.write(content)
  • Resultado do retorno PNG:
Retorno PNG

👉 Visite Scrapeless Docs para saber mais
👉 Confira a documentação da API agora: JS Render

Cenários de uso totalmente cobertos

Esta atualização é especialmente adequada para:

  • Aplicativos de extração de conteúdo (como geração de resumos, coleta de inteligência)
  • Crawling de dados de SEO (como análise de meta, dados estruturados)
  • Plataforma de agregação de notícias (extração rápida de texto e autor)
  • Ferramentas de análise e monitoramento de links (extração de informações href, nofollow)

Se você deseja rapidamente rastrear texto ou quer dados estruturados, essa atualização pode ajudá-lo a obter mais resultados com menos esforço.

Experimente agora

A função foi totalmente lançada no Scrapeless. Nenhuma autorização adicional ou plano de atualização é necessário. Basta limitar o parâmetro de saída ou passar no parâmetro response_type para experimentar o novo formato de retorno de dados!
Scrapeless sempre se comprometeu a construir uma plataforma de dados web inteligente, estável e fácil de usar. Esta atualização é apenas mais um passo à frente. Agradecemos sua experiência e feedback, vamos juntos tornar a aquisição de dados web mais fácil.

🔗 Experimente a API Universal de Scraping do Scrapeless agora

📣 Junte-se à comunidade para receber atualizações e dicas práticas em primeira mão!

Na Scorretless, acessamos apenas dados disponíveis ao público, enquanto cumprem estritamente as leis, regulamentos e políticas de privacidade do site aplicáveis. O conteúdo deste blog é apenas para fins de demonstração e não envolve atividades ilegais ou infratoras. Não temos garantias e negamos toda a responsabilidade pelo uso de informações deste blog ou links de terceiros. Antes de se envolver em qualquer atividade de raspagem, consulte seu consultor jurídico e revise os termos de serviço do site de destino ou obtenha as permissões necessárias.

Artigos mais populares

Catálogo