老實說,我以前也覺得「爬網站資料」是工程師才做得到的事,不是要寫 Python、就是得搞懂一堆防爬機制。每次想要定期抓價格、熱門商品、票價資訊時,不是得開 Excel 手貼、就是靠人工刷新網站。說真的,很煩,也很花時間。
如果你是內容創作者、SEO 編輯、行銷人員,或你只是想自動收集一些重複性資料(像是書籍排名、股價、機票價格),這篇文章會很適合你。
我會帶你走過一條我親自測試過的流程:從使用 Browser-Use 擷取動態網頁資料、自動整理成 JSON,再透過 Apps Script 自動寫進 Google Sheets,進一步可以整合 REST API 把資料送出或做進一步自動化。
工具怎麼來的?我為什麼會用上它?
事情要從我發現「Browser-Use」這個工具說起。當時我在找一種「不用寫程式」也能定時抓網站內容的方法,結果在 YouTube 上刷到這個神器級的工具。
Browser-Use 的核心概念其實很簡單,但非常強大:你只要像在錄影片一樣操作一次「點哪裡、複製什麼」,它就會自動幫你記錄下來,然後以後自動打開網站、模擬點擊滑動輸入,把你要的資料擷取出來。
我之前的做法是這樣的:
- 手動開網站 → 點頁籤 → 滑到目標區塊
- 一行一行 copy 貼到 Excel
- 整理格式、補欄位
- 匯出成 CSV 或貼上 Google Sheets
這過程花我快一小時還常出錯。而 Browser-Use 讓我直接「錄一次 → 自動重播 → 匯出 JSON」。
例如,我錄了一個流程到 100.com.tw 書店網站,抓熱門書籍的標題、價格、連結,Browser-Use 會把這些輸出成一筆筆的 JSON:
[
{
"title": "人工智慧時代的工作未來",
"price": "NT$450",
"url": "https://www.100.com.tw/book/123456"
},
{
"title": "ChatGPT 自動化秘笈",
"price": "NT$399",
"url": "https://www.100.com.tw/book/123789"
}
]
這些資料就能接著做更多事:寫入 Google Sheets、自動寄報表、甚至送到 WordPress 做內容更新。
實際操作流程:我怎麼用它完成一件事?
第一步:錄製自動擷取流程(Browser-Use)
我先打開 Browser-Use,選擇「新增任務」。這時就像錄影片一樣,我操作:
- 開啟目標網頁(例如:https://www.100.com.tw)
- 點擊進入「熱門書籍」區塊
- 選取書名、價格、連結的 HTML 元素
- 儲存這些元素為欄位(例如
title
,price
,url
)
錄製完後,它會幫我自動化整個流程,並提供資料匯出選項(JSON / CSV / Excel 都支援)。
第二步:串接 Google Sheets 自動寫入(Apps Script)
我希望這些資料能自動匯入到 Google Sheets,而不是每次還得匯出再貼。
這邊我用了 Google Apps Script 來接收 JSON 資料,方法是設計一個簡單的 Webhook endpoint:
// 這段是我用來接收 Browser-Use 擷取的資料,寫入 Google Sheets
function doPost(e) {
const sheet = SpreadsheetApp.openById("你的 Sheets ID").getSheetByName("熱門書籍");
const data = JSON.parse(e.postData.contents);
data.forEach(book => {
sheet.appendRow([book.title, book.price, book.url]);
});
}
這段程式的意思是:當 Browser-Use 將資料 POST 到這個 Apps Script Web App 時,程式會解析 JSON、逐筆寫進 Google Sheets 對應欄位。
搭配設定的「觸發器」,我甚至能做到每天自動執行、定期刷新排行榜。
第三步:自動推送到 REST API(例如 WordPress)
假設你像我一樣,有自己的部落格或內容網站,那接下來就可以直接把這些書籍資訊自動推送到 WordPress:
// 將資料推送到 WordPress 的 REST API
function postToWordPress(book) {
const options = {
method: "post",
contentType: "application/json",
headers: {
Authorization: "Bearer 你的API Token"
},
payload: JSON.stringify({
title: book.title,
content: `價格:${book.price}<br>連結:<a href="${book.url}">${book.url}</a>`,
status: "publish"
})
};
UrlFetchApp.fetch("https://你的網站/wp-json/wp/v2/posts", options);
}
這樣你每天自動擷取的資料,就能變成網站內容,變相實現一條「內容產線」:Browser-Use 擷取 → Apps Script 清洗 → REST API 發佈。
我從這次實作學到什麼?(非總結)
其實整個流程最麻煩的地方不是技術,而是「資料來源沒 API,但你又很需要它」。Browser-Use 就是解決了這個痛點。
再加上 Google Sheets 和 Apps Script,本來需要工程師才能做的整合,現在我一個人就能搞定整套 workflow。它讓我真正理解了什麼叫做「低程式碼自動化」的威力。
如果你正在做類似的事,比如:
- 整理競品資訊
- 定期產出內容
- 需要擷取但沒有 API 的網站資料
- 想靠 ChatGPT + 自動化賺內容 SEO 流量
那我真心推薦你試試這一套流程。從 Browser-Use 開始,不寫一行爬蟲也能完成任務,而且結合 chatgpt、apps script、json、google sheets、rest api,全自動跑起來真的有成就感。
📩 如果你需要我提供:
- Browser-Use 任務檔範本
- Apps Script 程式碼模板
- WordPress API 整合範例
歡迎留言或私訊我,我會持續分享更多這類「不寫程式也能做自動化」的實戰筆記。
發佈留言