我怎麼用 Browser-Use + Google Sheets 打造一條不寫程式的網頁自動擷取流程

老實說,我以前也覺得「爬網站資料」是工程師才做得到的事,不是要寫 Python、就是得搞懂一堆防爬機制。每次想要定期抓價格、熱門商品、票價資訊時,不是得開 Excel 手貼、就是靠人工刷新網站。說真的,很煩,也很花時間。

如果你是內容創作者、SEO 編輯、行銷人員,或你只是想自動收集一些重複性資料(像是書籍排名、股價、機票價格),這篇文章會很適合你。

我會帶你走過一條我親自測試過的流程:從使用 Browser-Use 擷取動態網頁資料、自動整理成 JSON,再透過 Apps Script 自動寫進 Google Sheets,進一步可以整合 REST API 把資料送出或做進一步自動化。


工具怎麼來的?我為什麼會用上它?

事情要從我發現「Browser-Use」這個工具說起。當時我在找一種「不用寫程式」也能定時抓網站內容的方法,結果在 YouTube 上刷到這個神器級的工具。

Browser-Use 的核心概念其實很簡單,但非常強大:你只要像在錄影片一樣操作一次「點哪裡、複製什麼」,它就會自動幫你記錄下來,然後以後自動打開網站、模擬點擊滑動輸入,把你要的資料擷取出來。

我之前的做法是這樣的:

  • 手動開網站 → 點頁籤 → 滑到目標區塊
  • 一行一行 copy 貼到 Excel
  • 整理格式、補欄位
  • 匯出成 CSV 或貼上 Google Sheets

這過程花我快一小時還常出錯。而 Browser-Use 讓我直接「錄一次 → 自動重播 → 匯出 JSON」。

例如,我錄了一個流程到 100.com.tw 書店網站,抓熱門書籍的標題、價格、連結,Browser-Use 會把這些輸出成一筆筆的 JSON:

[
  {
    "title": "人工智慧時代的工作未來",
    "price": "NT$450",
    "url": "https://www.100.com.tw/book/123456"
  },
  {
    "title": "ChatGPT 自動化秘笈",
    "price": "NT$399",
    "url": "https://www.100.com.tw/book/123789"
  }
]

這些資料就能接著做更多事:寫入 Google Sheets、自動寄報表、甚至送到 WordPress 做內容更新。


實際操作流程:我怎麼用它完成一件事?

第一步:錄製自動擷取流程(Browser-Use)

我先打開 Browser-Use,選擇「新增任務」。這時就像錄影片一樣,我操作:

  1. 開啟目標網頁(例如:https://www.100.com.tw)
  2. 點擊進入「熱門書籍」區塊
  3. 選取書名、價格、連結的 HTML 元素
  4. 儲存這些元素為欄位(例如 title, price, url

錄製完後,它會幫我自動化整個流程,並提供資料匯出選項(JSON / CSV / Excel 都支援)。


第二步:串接 Google Sheets 自動寫入(Apps Script)

我希望這些資料能自動匯入到 Google Sheets,而不是每次還得匯出再貼。

這邊我用了 Google Apps Script 來接收 JSON 資料,方法是設計一個簡單的 Webhook endpoint:

// 這段是我用來接收 Browser-Use 擷取的資料,寫入 Google Sheets
function doPost(e) {
  const sheet = SpreadsheetApp.openById("你的 Sheets ID").getSheetByName("熱門書籍");
  const data = JSON.parse(e.postData.contents);
  data.forEach(book => {
    sheet.appendRow([book.title, book.price, book.url]);
  });
}

這段程式的意思是:當 Browser-Use 將資料 POST 到這個 Apps Script Web App 時,程式會解析 JSON、逐筆寫進 Google Sheets 對應欄位。

搭配設定的「觸發器」,我甚至能做到每天自動執行、定期刷新排行榜。


第三步:自動推送到 REST API(例如 WordPress)

假設你像我一樣,有自己的部落格或內容網站,那接下來就可以直接把這些書籍資訊自動推送到 WordPress:

// 將資料推送到 WordPress 的 REST API
function postToWordPress(book) {
  const options = {
    method: "post",
    contentType: "application/json",
    headers: {
      Authorization: "Bearer 你的API Token"
    },
    payload: JSON.stringify({
      title: book.title,
      content: `價格:${book.price}<br>連結:<a href="${book.url}">${book.url}</a>`,
      status: "publish"
    })
  };
  UrlFetchApp.fetch("https://你的網站/wp-json/wp/v2/posts", options);
}

這樣你每天自動擷取的資料,就能變成網站內容,變相實現一條「內容產線」:Browser-Use 擷取 → Apps Script 清洗 → REST API 發佈。


我從這次實作學到什麼?(非總結)

其實整個流程最麻煩的地方不是技術,而是「資料來源沒 API,但你又很需要它」。Browser-Use 就是解決了這個痛點。

再加上 Google Sheets 和 Apps Script,本來需要工程師才能做的整合,現在我一個人就能搞定整套 workflow。它讓我真正理解了什麼叫做「低程式碼自動化」的威力。

如果你正在做類似的事,比如:

  • 整理競品資訊
  • 定期產出內容
  • 需要擷取但沒有 API 的網站資料
  • 想靠 ChatGPT + 自動化賺內容 SEO 流量

那我真心推薦你試試這一套流程。從 Browser-Use 開始,不寫一行爬蟲也能完成任務,而且結合 chatgpt、apps script、json、google sheets、rest api,全自動跑起來真的有成就感。


📩 如果你需要我提供:

  • Browser-Use 任務檔範本
  • Apps Script 程式碼模板
  • WordPress API 整合範例

歡迎留言或私訊我,我會持續分享更多這類「不寫程式也能做自動化」的實戰筆記。

留言

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *