🎯 Trình duyệt đám mây tùy chỉnh, chống phát hiện được hỗ trợ bởi Chromium tự phát triển, thiết kế dành cho trình thu thập dữ liệu webtác nhân AI. 👉Dùng thử ngay
Quay lại blog

Cách thiết lập Trình duyệt Đại lý hoàn chỉnh: Hướng dẫn đầy đủ cài đặt kỹ năng Trình duyệt thu thập dữ liệu vào 5 Đại lý AI chính

Daniel Kim
Daniel Kim

Lead Scraping Automation Engineer

22-Apr-2026

Những điểm chính

  • Một kỹ năng, năm tác nhân. Claude Code, Cursor, VS Code + Copilot, Codex CLI và Gemini CLI đều đọc cùng một định dạng SKILL.md + YAML-frontmatter từ một bộ thư mục thông thường nhỏ.
  • Một CLI cơ bản duy nhất. Một lệnh npm install -g scrapeless-scraping-browser và một khóa API Scrapeless duy nhất cung cấp sức mạnh cho kỹ năng trên mọi tác nhân.
  • Một mã thông báo, bất kỳ tác nhân nào. Cấu hình khóa API một lần với lệnh scrapeless-scraping-browser config set apiKey … — bất kỳ tác nhân nào gọi đến CLI đều đọc khóa đã lưu trữ giống nhau.
  • Một trình duyệt tác nhân được xây dựng cho web. Trình duyệt Scraping được thiết kế cho các trang động, tương tác với trình duyệt, khó khăn CAPTCHA, định tuyến proxy và tự động hóa cấp sản xuất, nơi mà một trình duyệt bình thường hoặc trình cào tĩnh không đủ. Trình duyệt Scraping giải quyết reCAPTCHA v2, Cloudflare Turnstile, Cloudflare 5s Challenge và AWS Challenge một cách tự nhiên — không cần thiết lập thêm.
  • Tốt nhất cho các trường hợp sử dụng của tác nhân thực sự. Điều này đặc biệt hữu ích khi tác nhân của bạn phải xem xét bảng điều khiển, điều hướng các luồng đa bước, điền vào các biểu mẫu, thu thập dữ liệu có cấu trúc, hoặc hoạt động trên các trang web có bố cục thay đổi.

Giới thiệu: Kỹ năng tác nhân là mục tiêu cài đặt mới

Các tác nhân AI đang chuyển từ việc tạo văn bản đơn giản sang thực thi web thực tế. Trong sự chuyển biến đó, trình duyệt không còn chỉ là bề mặt hiển thị nữa; nó trở thành lớp hoạt động nơi tác nhân quan sát các trang, lý luận về trạng thái và thực hiện hành động trên các trang web. Đó là lý do tại sao thuật ngữ trình duyệt tác nhân lại quan trọng: nó mô tả một môi trường trình duyệt có thể thực hiện các tác vụ đa bước với một mức độ tự chủ nhất định thay vì đợi một con người nhấp vào từng bước.

Các tác nhân lập trình AI hiện đại — Claude Code, Cursor, VS Code + GitHub Copilot, OpenAI Codex CLI, và Gemini CLI — đều hỗ trợ kỹ năng tác nhân: các gói drop-in dạy cho tác nhân một khả năng mới theo yêu cầu. Hệ sinh thái đã hội tụ vào một định dạng đóng gói đơn nhất (SKILL.md với YAML frontmatter) khiến cùng một thư mục kỹ năng hoạt động trên mọi tác nhân ở trên với những điều chỉnh tối thiểu.

Đây cũng là nơi Scrapeless phù hợp một cách tự nhiên. scrapeless-Agent-browser được định vị như một cầu nối giữa logic tác nhân và thực thi trình duyệt đáng tin cậy; nó cho phép tác nhân điều khiển Trình duyệt Cào Scrapeless — một trình duyệt đám mây tùy chỉnh, chống phát hiện được xây dựng đặc biệt cho tự động hóa web và các tác nhân AI — để mở các trang, trích xuất dữ liệu, điền vào các biểu mẫu, định tuyến lưu lượng thông qua proxy dân cư và xử lý CAPTCHA, tất cả mà không cần viết mã tự động hóa trình duyệt cấp thấp.

Hướng dẫn này trình bày cách cài đặt kỹ năng Trình duyệt Cào Scrapeless vào 5 môi trường tác nhân lớn, trong khi giữ cùng một nền tảng trình duyệt cơ bản trên tất cả chúng.

Tại sao trình duyệt tác nhân quan trọng

Tự động hóa trình duyệt truyền thống thường gặp vấn đề với những thứ mà người dùng thực sự gặp phải hàng ngày: JavaScript động, kiểm tra chống bot, trạng thái phiên, nội dung nhạy cảm theo địa lý và các bố cục thay đổi nhanh chóng. Trình duyệt tác nhân giải quyết vấn đề đó bằng cách cung cấp cho tác nhân một trình duyệt được thiết kế cho tương tác, tính kiên trì và sự biến đổi trên web thay vì chỉ là hiển thị trang. Đối với các nhóm xây dựng quy trình làm việc sản xuất, điều này giảm bớt lượng mã dán cần thiết xung quanh điều hướng, thử lại và xử lý trạng thái trang.

Đối với nhiều công ty, chính trình duyệt giờ đây là giao diện để truy cập dữ liệu. Một trình duyệt tác nhân có thể đọc bảng điều khiển, di chuyển qua các cổng xác thực, thu thập tín hiệu giá cả hoặc tính khả dụng, xác minh trạng thái tài khoản và hoàn thành các nhiệm vụ web mà sẽ rất tốn kém để mã hóa từ đầu đến cuối. Lớp trình duyệt của Scrapeless đặc biệt phù hợp khi các quy trình làm việc đó cần cơ sở hạ tầng bền vững, kiểm soát proxy và thực hiện đáng tin cậy ở quy mô lớn.

Những gì bạn có thể làm với nó

Khi đã được cài đặt, các tác nhân sẽ có toàn bộ bề mặt Trình duyệt Cào Scrapeless:

  • Mở bất kỳ URL nào trong Trình duyệt Cào Scrapeless và khám phá DOM với snapshot -i.
  • Tương tác với các phần tử thông qua các tham chiếu cây khả năng tiếp cận ngắn @e1, @e2 hoặc các bộ chọn CSS tiêu chuẩn.
  • Điền vào các biểu mẫu, nhấp vào các nút, tải tệp lên, chụp ảnh màn hình, tải xuống PDF.
  • Định tuyến lưu lượng thông qua các proxy dân cư theo quốc gia, tiểu bang hoặc thành phố.
  • Cấu hình dấu vân tay desktop theo phiên: nền tảng (Windows, macOS, Linux), múi giờ, ngôn ngữ và kích thước màn hình.
  • Ghi lại các phiên cho việc xem xét sau này trong bảng điều khiển Scrapeless, và mở một chế độ xem trực tiếp để kiểm tra theo thời gian thực.

Các tác nhân kích hoạt kỹ năng tự động khi người dùng nói những điều như "cào 5 bài viết hàng đầu từ Hacker News", "đăng nhập vào trang này và chụp ảnh màn hình bảng điều khiển", hoặc "điền vào đơn xin việc này với sơ yếu lý lịch của tôi và dừng lại trước khi gửi".

Tại sao chọn Scrapeless

Trình duyệt Cào Scrapeless xử lý những phần của tự động hóa web thường mất hàng tuần thời gian kỹ thuật:

  • Chống phát hiện được tích hợp — Trang sản phẩm của Scrapeless mô tả nó là một "trình duyệt đám mây tùy chỉnh, chống phát hiện được phát triển từ Chromium."
  • Proxy dân cư tại hơn 195 quốc gia, có thể chọn theo phiên.
  • Giải quyết CAPTCHA tự động cho reCAPTCHA v2, Cloudflare Turnstile, Cloudflare 5s Challenge và AWS Challenge (danh sách hỗ trợ); bất cứ điều gì ngoài bốn cái đó được bảo vệ bởi sản phẩm Scrapeless CAPTCHA Solver riêng biệt.
  • Ghi lại phiên và xem trực tiếp cho việc kiểm tra và gỡ lỗi theo thời gian thực của các phiên sản xuất.
  • Tương thích giao thức với Puppeteer và Playwright thông qua Scrapeless SDK.

Các sản phẩm liên quan: API Ch scraping Universal, Giải pháp Proxy, và Máy chủ MCP của Scrapeless cho các tích hợp Giao thức Ngữ cảnh Mô hình.

Định dạng Kỹ năng

Mỗi tác nhân trong hướng dẫn này đều đọc kỹ năng theo cùng một hình dạng:

Copy
<skills-dir>/scrapeless-scraping-browser/
├── SKILL.md          # YAML frontmatter + hướng dẫn (bắt buộc)
├── skill.json        # siêu dữ liệu phong phú (tuỳ chọn nhưng khuyến nghị)
├── SECURITY.md       # ghi chú bảo mật (tuỳ chọn)
└── references/
    └── authentication.md

Phần đầu của SKILL.md cho tác nhân biết kỹ năng làm gì và khi nào để kích hoạt nó:

markdown Copy
---
name: scrapeless-scraping-browser
description: Tự động hóa trình duyệt đám mây CLI cho các tác nhân AI được hỗ trợ bởi Scrapeless. Sử dụng khi người dùng cần tương tác với các trang web bằng trình duyệt đám mây, bao gồm điều hướng trang, điền biểu mẫu, nhấp vào nút, chụp ảnh màn hình, trích xuất dữ liệu, kiểm tra ứng dụng web, hoặc tự động hóa bất kỳ tác vụ trình duyệt nào với proxy dân cư và các tính năng chống phát hiện. Các kích hoạt bao gồm yêu cầu "mở một trang web", "điền vào một biểu mẫu", "nhấp vào một nút", "chụp một ảnh màn hình", "trích xuất dữ liệu từ một trang", "kiểm tra ứng dụng web này", "sử dụng một proxy", "vượt qua phát hiện", hoặc bất kỳ tác vụ nào yêu cầu tự động hóa trình duyệt đám mây.
allowed-tools: Bash(npx scrapeless-scraping-browser-skills scrapeless-scraping-browser:*), Bash(scrapeless-scraping-browser:*)
---

Những điều chính khác nhau giữa các tác nhân là nơi để đặt thư mục kỹ năng, cách tác nhân khám phá nó khi khởi động, và các trường frontmatter tùy chọn mà mỗi tác nhân thực sự đọc (các trường cốt lõi name + description là phổ quát).

Điều kiện tiên quyết

Trước khi cài đặt kỹ năng vào bất kỳ tác nhân nào, hãy thiết lập CLI và thông tin xác thực cơ bản — một lần.

1. Cài đặt Node.js 18 trở lên

Từ nodejs.org, hoặc thông qua một trình quản lý phiên bản (nvm, fnm, volta).

2. Cài đặt Scrapeless Scraping Browser CLI toàn cầu

bash Copy
npm install -g scrapeless-scraping-browser

Xác minh:

bash Copy
scrapeless-scraping-browser version

3. Lấy một mã API của Scrapeless

  1. Đăng ký tại app.scrapeless.com — để bạn có thể bắt đầu sử dụng Trình duyệt Scraping ngay lập tức.
  2. Tạo một token API từ bảng điều khiển.

4. Cấu hình mã API

Chọn một trong các phương pháp sau.

Tùy chọn A — tệp cấu hình (khuyến nghị, tồn tại, đa tác nhân):

bash Copy
scrapeless-scraping-browser config set apiKey your_api_token_here
scrapeless-scraping-browser config get apiKey   # xác minh

Điều này lưu trữ khóa tại ~/.scrapeless/config.json trong thư mục chính của bạn.

Tùy chọn B — biến môi trường:

bash Copy
# macOS / Linux
export SCRAPELESS_API_KEY=your_api_token_here

# Windows PowerShell
$env:SCRAPELESS_API_KEY="your_api_token_here"

Thêm dòng này vào ~/.zshrc, ~/.bashrc, hoặc biến môi trường Windows của bạn để duy trì qua các phiên.

Lưu ý: tệp cấu hình ưu tiên hơn biến môi trường khi cả hai đều được thiết lập. Chỉ SCRAPELESS_API_KEY được đọc từ môi trường — Máy chủ MCP Scrapeless sử dụng một biến khác (SCRAPELESS_KEY) và không liên quan đến kỹ năng này.

5. Tải xuống gói kỹ năng

Clone gói kỹ năng:

bash Copy
git clone https://github.com/scrapeless-ai/scrapeless-agent-browser.git
cd scrapeless-agent-browser/skills/scraping-browser-skill

Các bước dưới đây sao chép nội dung của thư mục này vào thư mục kỹ năng của mỗi tác nhân.


Bước 1 — Cài đặt vào Claude Code (Anthropic)

Thư mục kỹ năng

  • Toàn cầu: ~/.claude/skills/scrapeless-scraping-browser/
  • Dự án: <repo>/.claude/skills/scrapeless-scraping-browser/

Cài đặt (toàn cầu, macOS / Linux)

bash Copy
mkdir -p ~/.claude/skills/scrapeless-scraping-browser
cp -r ./* ~/.claude/skills/scrapeless-scraping-browser/

Cài đặt (toàn cầu, Windows PowerShell)

powershell Copy
New-Item -ItemType Directory -Force -Path "$HOME\.claude\skills\scrapeless-scraping-browser"
Copy-Item -Recurse -Force .\* "$HOME\.claude\skills\scrapeless-scraping-browser\"

Kích hoạt: Claude Code tự động nhận biết các thay đổi về kỹ năng trong ~/.claude/skills/ (không cần khởi động lại). Chỉ cần thiết trong lần cài đặt đầu tiên nếu thư mục cấp cao ~/.claude/skills/ không tồn tại khi phiên làm việc bắt đầu — trong trường hợp đó, hãy khởi động lại bất kỳ phiên claude nào đang chạy một lần.

Xác minh: bên trong Claude Code, hỏi "các kỹ năng nào có sẵn?" — tài liệu khắc phục sự cố về kỹ năng của Anthropic chỉ ra chính xác câu hỏi này như một kiểm tra danh sách (nguồn). Hoặc chạy một lệnh kích hoạt như "mở example.com và chụp màn hình trang chủ" và Claude sẽ thực thi các lệnh đã được tài liệu của kỹ năng từ SKILL.md.


Bước 2 — Cài đặt vào Cursor

Phiên bản tối thiểu: Cursor 2.4 hoặc mới hơn (Kỹ năng Agent được phát hành trong phiên bản 2.4, tháng 1 năm 2026).

Thư mục kỹ năng

  • Toàn cầu (chuẩn): ~/.agents/skills/scrapeless-scraping-browser/
  • Toàn cầu (cũng được chấp nhận): ~/.cursor/skills/, ~/.claude/skills/, ~/.codex/skills/
  • Dự án (chuẩn): <repo>/.agents/skills/scrapeless-scraping-browser/
  • Dự án (cũng được chấp nhận): <repo>/.cursor/skills/, <repo>/.claude/skills/, <repo>/.codex/skills/

Cài đặt (đường dẫn chuẩn toàn cầu)

bash Copy
mkdir -p ~/.agents/skills/scrapeless-scraping-browser
cp -r ./* ~/.agents/skills/scrapeless-scraping-browser/

Windows PowerShell

powershell Copy
New-Item -ItemType Directory -Force -Path "$HOME\.agents\skills\scrapeless-scraping-browser"
Copy-Item -Recurse -Force .\* "$HOME\.agents\skills\scrapeless-scraping-browser\"

Kích hoạt: "Khi Cursor khởi động, nó tự động phát hiện các kỹ năng từ các thư mục kỹ năng và làm cho chúng có sẵn cho Agent." (Tài liệu Cursor)

Xác minh: mở Cài đặt Cursor (Cmd/Ctrl+Shift+J) → Quy tắc — scrapeless-scraping-browser xuất hiện dưới mục Agent Decides. Hoặc gõ / trong trò chuyện Agent để thấy kỹ năng trong danh sách lệnh slash. Hoặc yêu cầu "trích xuất 5 câu chuyện hàng đầu từ news.ycombinator.com dưới dạng JSON" — tác nhân sẽ tự động liên kết các lệnh của kỹ năng (new-sessionopenget htmleval).


Bước 3 — Cài đặt vào VS Code + GitHub Copilot

GitHub Copilot đã thêm hỗ trợ Kỹ năng Agent vào tháng 12 năm 2025 (changelog). Copilot trong VS Code tự động phát hiện các kỹ năng từ ba gia đình vị trí:

  • Toàn cầu (cá nhân): ~/.copilot/skills/, ~/.claude/skills/, hoặc ~/.agents/skills/
  • Dự án (gốc Copilot): <repo>/.github/skills/scrapeless-scraping-browser/
  • Dự án (crossover-agent): <repo>/.claude/skills/... hoặc <repo>/.agents/skills/...

Ghi chú frontmatter: Copilot chỉ yêu cầu namedescription; allowed-toolslicense là tùy chọn. Tài liệu kỹ năng Copilot của GitHub quy định rõ ràng: "Trong frontmatter SKILL.md, bạn có thể sử dụng trường allowed-tools để liệt kê các công cụ mà Copilot có thể sử dụng mà không cần hỏi xác nhận mỗi lần." Xem xét nguồn kỹ năng trước khi cấp phê duyệt trước.

Cài đặt (toàn cầu, macOS / Linux)

bash Copy
mkdir -p ~/.copilot/skills/scrapeless-scraping-browser
cp -r ./* ~/.copilot/skills/scrapeless-scraping-browser/

Windows PowerShell

powershell Copy
New-Item -ItemType Directory -Force -Path "$HOME\.copilot\skills\scrapeless-scraping-browser"
Copy-Item -Recurse -Force .\* "$HOME\.copilot\skills\scrapeless-scraping-browser\"

Cài đặt (cấp dự án, được khuyến nghị cho sử dụng nhóm)

bash Copy
cd <your-repo>
mkdir -p .github/skills/scrapeless-scraping-browser
cp -r /path/to/skill/* .github/skills/scrapeless-scraping-browser/
git add .github/skills/scrapeless-scraping-browser
git commit -m "Thêm kỹ năng scrapeless-scraping-browser"

Kích hoạt: theo changelog của GitHub ngày 18 tháng 12 năm 2025, Copilot tự động nhận các kỹ năng được đặt trong các thư mục được hỗ trợ mà không cần cấu hình thêm. Các kỹ năng tải nội dung một cách dần dần chỉ khi liên quan đến một nhiệm vụ.

Xác minh: mở Trò chuyện Copilot và gõ /skills — theo tài liệu kỹ năng Copilot của VS Code, điều này "mở nhanh menu Cấu hình Kỹ năng" nơi scrapeless-scraping-browser nên xuất hiện. Hoặc yêu cầu "trích xuất giá sản phẩm từ URL này" / "chụp màn hình example.com" và xem Copilot thực thi kỹ năng.


Bước 4 — Cài đặt vào OpenAI Codex CLI

Phiên bản tối thiểu: Bất kỳ phiên bản Codex CLI nào tài liệu hóa Kỹ năng Agent — cập nhật lên codex CLI mới nhất để đảm bảo an toàn (Tài liệu Kỹ năng Codex).

Thư mục kỹ năng

  • Toàn cầu: $HOME/.agents/skills/scrapeless-scraping-browser/phạm vi người dùng được tài liệu hóa.
  • Dự án: $CWD/.agents/skills/, bất kỳ thư mục cha nào có .agents/skills/, hoặc $REPO_ROOT/.agents/skills/. Codex đi từ CWD lên tới gốc repo.
  • ~/.codex/skills/ KHÔNG được tự động phát hiện — nếu bạn muốn Codex đọc từ đó, hãy đăng ký nó một cách rõ ràng trong ~/.codex/config.toml dưới [[skills.config]] với một đường dẫn tuyệt đối, ví dụ: path = "/home/<bạn>/.codex/skills/scrapeless-scraping-browser/SKILL.md" (tài liệu Codex hiển thị đường dẫn tuyệt đối trong ví dụ [[skills.config]] — việc mở rộng dấu ngã bên trong TOML không được tài liệu hóa).

Cài đặt (toàn cầu)

bash Copy
mkdir -p ~/.agents/skills/scrapeless-scraping-browser
cp -r ./* ~/.agents/skills/scrapeless-scraping-browser/

Windows PowerShell

powershell Copy
New-Item -ItemType Directory -Force -Path "$HOME\.agents\skills\scrapeless-scraping-browser"
Copy-Item -Recurse -Force .\* "$HOME\.agents\skills\scrapeless-scraping-browser\"

Kích hoạt: "Codex tự động phát hiện các thay đổi kỹ năng. Nếu cập nhật không xuất hiện, hãy khởi động lại Codex." (Tài liệu Kỹ năng Codex)

Xác minh: tại dấu nhắc Codex, chạy /skills để liệt kê các kỹ năng có sẵn. Gọi kỹ năng trực tiếp bằng cách gõ $scrapeless-scraping-browser trong tin nhắn của bạn, hoặc thử nghiệm với việc tự động kích hoạt bằng cách "điền vào biểu mẫu đăng ký tại example.com/signup và dừng lại trước khi gửi cuối cùng".


Bước 5 — Cài Đặt Vào Gemini CLI (Google)

Thư mục kỹ năng

  • Toàn cầu: ~/.gemini/skills/scrapeless-scraping-browser/~/.agents/skills/ là bí danh chính thức được tài liệu hóa mà ưu tiên hơn ~/.gemini/skills/ khi cả hai tồn tại.
  • Dự án: <repo>/.gemini/skills/scrapeless-scraping-browser/ — hoặc sử dụng bí danh <repo>/.agents/skills/.

Cài đặt

bash Copy
mkdir -p ~/.gemini/skills/scrapeless-scraping-browser
cp -r ./* ~/.gemini/skills/scrapeless-scraping-browser/

Windows PowerShell

powershell Copy
New-Item -ItemType Directory -Force -Path "$HOME\.gemini\skills\scrapeless-scraping-browser"
Copy-Item -Recurse -Force .\* "$HOME\.gemini\skills\scrapeless-scraping-browser\"

Kích hoạt: chạy /skills reload trong phiên để làm mới danh sách các kỹ năng được phát hiện từ tất cả các cấp (Tài liệu kỹ năng Gemini CLI).

Xác minh: chạy /skills list bên trong một phiên Gemini CLI — scrapeless-scraping-browser nên xuất hiện trong danh sách đã được phát hiện. Sau đó hãy thử nghiệm với "mở booking.com từ một proxy dân cư ở Tokyo và kéo 5 khách sạn hàng đầu cho ngày 15–18 tháng 6"; mô hình sẽ yêu cầu kích hoạt trước khi chạy các lệnh của kỹ năng.


Bước 6 — Một Kỹ Năng, Mọi Đại Lý (Mẹo Symlink)

Nếu bạn sử dụng nhiều đại lý và không muốn sao chép kỹ năng vào N thư mục, hãy cài đặt một lần và tạo symlink cho phần còn lại.

macOS / Linux

bash Copy
# Cài đặt một lần như là nguồn của sự thật:
mkdir -p ~/.agents/skills/scrapeless-scraping-browser
cp -r ./* ~/.agents/skills/scrapeless-scraping-browser/

# Tạo symlink cho mọi đại lý khác:
ln -s ~/.agents/skills/scrapeless-scraping-browser ~/.claude/skills/scrapeless-scraping-browser
ln -s ~/.agents/skills/scrapeless-scraping-browser ~/.cursor/skills/scrapeless-scraping-browser
ln -s ~/.agents/skills/scrapeless-scraping-browser ~/.copilot/skills/scrapeless-scraping-browser
ln -s ~/.agents/skills/scrapeless-scraping-browser ~/.gemini/skills/scrapeless-scraping-browser

Bây giờ cập nhật nguồn sẽ cập nhật mọi đại lý cùng một lúc.

Windows PowerShell — trên Windows 10/11 với Chế độ Phát triển được bật (Cài đặt → Hệ thống → Nâng cao → Dành cho nhà phát triển trên Windows 11 25H2+; trang Dành cho nhà phát triển trực tiếp trên các phiên bản trước đó), symlinks hoạt động mà không cần quyền quản trị. Nếu không, hãy chạy PowerShell với quyền Quản trị viên. Xem tài liệu Chế độ Phát triển của Microsoft.

powershell Copy
$src = "$HOME\.agents\skills\scrapeless-scraping-browser"
"claude","cursor","copilot","gemini" | ForEach-Object {
  $dest = "$HOME\.$_\skills\scrapeless-scraping-browser"
  New-Item -ItemType Directory -Force -Path (Split-Path $dest)
  New-Item -ItemType SymbolicLink -Path $dest -Target $src
}

Bước 7 — Cấp Dự Án So Với Toàn Cầu: Nên Chọn Cái Nào

Phạm vi Khi nào sử dụng
Toàn cầu (~/.<agent>/skills/) Quy trình làm việc cá nhân; kỹ năng nên có sẵn trên mọi dự án trên máy cục bộ.
Dự án (<repo>/.<agent>/skills/) Quy trình làm việc nhóm; mọi đồng đội nào sao chép repo nên thừa hưởng kỹ năng. Cam kết thư mục kỹ năng vào git.
Thứ tự ưu tiên khác nhau giữa các tác nhân. Claude Code: doanh nghiệp > cá nhân (toàn cầu) > dự án — khi cùng một kỹ năng tồn tại ở nhiều cấp độ, bản sao cấp độ người dùng toàn cầu sẽ ưu tiên hơn bản sao cấp độ dự án (xem tài liệu về kỹ năng của Anthropic). Các tác nhân khác công bố quy tắc giải quyết riêng của mình (ví dụ, tài liệu của Gemini CLI cho biết alias .agents/skills/ có ưu tiên hơn .gemini/skills/ trong cùng một cấp) — kiểm tra phần riêng của từng tác nhân ở trên và tài liệu chính thức của họ để biết thứ tự chính xác.

Bước 8 — Khắc phục sự cố thường gặp

Kỹ năng không xuất hiện sau khi sao chép. Đường dẫn làm mới của mỗi tác nhân là khác nhau: Claude Code — tài liệu nói rằng một thư mục ~/.claude/skills/ cấp cao được tạo sau khi khởi động phiên cần phải khởi động lại claude; các thay đổi trong thư mục hiện tại sẽ được cập nhật trực tiếp. Codex — tài liệu nói "Codex phát hiện thay đổi kỹ năng tự động. Nếu một cập nhật không xuất hiện, hãy khởi động lại Codex." Gemini CLI — chạy /skills reload trong phiên. Cursor và VS Code / Copilot — tài liệu của họ mô tả việc phát hiện tự động khi khởi động; nếu thiếu kỹ năng, hãy khởi động lại trình chỉnh sửa.

Tác nhân nói SCRAPELESS_API_KEY là bắt buộc. Khóa không có trong môi trường của quy trình tác nhân. Ưu tiên phương pháp tệp cấu hình (scrapeless-scraping-browser config set apiKey ...) — nó không phụ thuộc vào quy trình và hoạt động trên mọi tác nhân.

Trigger không tự động khởi động. Mở SKILL.md ở vị trí đã cài đặt và kiểm tra description trong frontmatter — các tác nhân sử dụng nó như một tín hiệu định tuyến. Thêm các cụm từ của người dùng vào danh sách triggers trong skill.json để mở rộng phạm vi khớp.

Kết luận

Các trình duyệt tác nhân đang trở thành mặc định thực tế cho tự động hóa tập trung vào web, và Scrapeless phù hợp với xu hướng đó bằng cách cung cấp một lớp trình duyệt đám mây mà các tác nhân có thể thực sự phụ thuộc vào. Nếu quy trình làm việc của bạn phụ thuộc vào điều hướng, tương tác, nội dung động hoặc truy cập dữ liệu dựa trên trình duyệt, kỹ năng Scrapeless Scraping Browser là một nền tảng vững chắc. Lợi thế lớn là đơn giản: bạn chỉ cần cài đặt một kỹ năng trình duyệt một lần, sau đó tái sử dụng nó trên nhiều tác nhân lớn mà không cần xây dựng lại lớp thực thi mỗi lần. Kho lưu trữ scrapeless-agent-browser đóng gói việc thực thi trình duyệt thành một lớp tác nhân có thể tái sử dụng thay vì coi trình duyệt như một sự phụ thuộc của kịch bản đơn lẻ.

Hãy theo dõi các trường hợp sử dụng thực tế trong các hướng dẫn blog sắp tới của chúng tôi. Hiện tại, hãy tham gia cộng đồng chính thức của Scrapeless để nhận các cập nhật mới nhất và xin quyền truy cập vào kế hoạch miễn phí của bạn!
Discord
Telegram



Câu hỏi thường gặp

Q1: Tôi có cần một khóa API riêng cho từng tác nhân không?
Không. Cấu hình khóa API Scrapeless một lần với scrapeless-scraping-browser config set apiKey ... và mọi tác nhân chạy CLI sẽ tự động nhận nó.

Q2: Tôi có thể sử dụng kỹ năng ở cấp độ dự án và cam kết nó vào kho của tôi không?
Có. Mọi tác nhân trong hướng dẫn này đều hỗ trợ thư mục kỹ năng ở cấp độ dự án (ví dụ: <repo>/.claude/skills/, <repo>/.github/skills/, <repo>/.agents/skills/). Cam kết kỹ năng sẽ làm cho nó có sẵn cho mọi đồng đội sao chép kho.

Q3: Tôi có cần cài đặt gói npm scrapeless-scraping-browser nếu tôi đã cài đặt kỹ năng không?
Có — kỹ năng là lớp hướng dẫn cho tác nhân; gói npm là CLI mà nó điều khiển. CLI phải có thể truy cập được bởi tác nhân, được cài đặt toàn cầu (npm install -g scrapeless-scraping-browser) hoặc được gọi thông qua npx scrapeless-scraping-browser ….

Q4: Kỹ năng xử lý CAPTCHAs như thế nào?
Trình duyệt Scraping tự động giải quyết bốn loại CAPTCHA ngay lập tức — reCaptcha v2, Cloudflare Turnstile, Cloudflare 5s Challenge và AWS Challenge (danh sách hỗ trợ chính thức). Tài liệu lưu ý rằng "các thao tác tiếp theo cần được thực hiện bởi bạn" — trình duyệt giải quyết, mã của bạn (hoặc tác nhân) điều khiển những gì xảy ra tiếp theo. Đối với bất kỳ thứ gì ngoài bốn loại đó, Scrapeless CAPTCHA Solver là một sản phẩm riêng biệt.

Q5: Kỹ năng có thể được sử dụng cùng với mã Puppeteer hoặc Playwright không?
Có. Scrapeless Scraping Browser tương thích giao thức với Puppeteer và Playwright qua tài liệu của Scrapeless Scraping Browser, vì vậy các tác nhân có thể kết hợp các phiên được điều khiển bởi kỹ năng với các kịch bản tự động hóa hiện có.

Tại Scrapless, chúng tôi chỉ truy cập dữ liệu có sẵn công khai trong khi tuân thủ nghiêm ngặt các luật, quy định và chính sách bảo mật trang web hiện hành. Nội dung trong blog này chỉ nhằm mục đích trình diễn và không liên quan đến bất kỳ hoạt động bất hợp pháp hoặc vi phạm nào. Chúng tôi không đảm bảo và từ chối mọi trách nhiệm đối với việc sử dụng thông tin từ blog này hoặc các liên kết của bên thứ ba. Trước khi tham gia vào bất kỳ hoạt động cạo nào, hãy tham khảo ý kiến ​​cố vấn pháp lý của bạn và xem xét các điều khoản dịch vụ của trang web mục tiêu hoặc có được các quyền cần thiết.

Bài viết phổ biến nhất

Danh mục