PDF合併工具

PDF 合併 / PDF Merger

在瀏覽器內合併,不會把 PDF 上傳到伺服器。檔案很大/很多頁時會比較吃記憶體。
未選擇任何檔案
拖曳調整順序(上 → 下 = 先 → 後):

    PDF合併工具說明

    免費 PDF 合併工具(免上傳、拖曳排序、快速下載)Browser-based
    這是一個線上 PDF 合併工具,可直接在瀏覽器內將多個 PDF 合併成一個檔案:不需安裝、免註冊、免費,並支援拖曳排序與自訂輸出檔名。
    主要特色
    免上傳、隱私友善:所有處理在你的瀏覽器本機完成,不會把 PDF 上傳到伺服器。
    拖曳排序:可直接拖拉清單調整順序(上 → 下 = 先 → 後)。
    自訂檔名:輸出檔名可自由命名(預設 merged.pdf)。
    適用情境:合併報告、論文附件、合約、掃描文件、教學講義等。
    使用方式(30 秒完成)
    1
    在上方工具選取多個 PDF 檔案。
    2
    拖曳清單,調整合併順序。
    3
    (可選)輸入輸出檔名。
    4
    按「合併下載」,取得合併後 PDF。

    Free PDF Merger (No Upload, Drag to Reorder, Instant Download)
    A free online PDF merge tool that runs in your browser: no installation, no sign-up, drag-and-drop ordering, and a custom output filename.
    Key features
    No upload: processed locally in your browser (privacy-friendly).
    Drag to reorder: top → bottom = first → last.
    Custom filename: default merged.pdf.

    2026年4月8日 星期三

    Claude Pro 用戶的 Token 消耗實測紀錄:你的額度到底去哪裡了?

    最近 Anthropic 推出了一個限時活動,Pro 用戶可以免費領 $20 的 Extra Usage(超量使用額度),截止日是 4 月 17 日。趁這個機會,整理一下 Claude Pro 的 token 消耗概況,讓有需要的人參考。


    1. Pro 方案的基本額度架構

    Claude Pro 並不是單純按 token 數計費,而是採用「五小時 session 重置制」:

    • 每個五小時視窗有固定配額,用完就鎖住,等重置
    • 另外還有每週用量上限(seven-day cap),就算每個 session 都用滿,週上限也會擋住
    • 社群實測每個 session 大約有 44,000 tokens 的容量,換算大概是 10~40 則訊息,視對話複雜度而定

    而 Extra Usage(超量用量)是在配額用完之後,按 API 費率計費的付費補充機制,費率如下:

    模型Input(per 百萬 tokens)Output(per 百萬 tokens)
    Sonnet 4.6(主力)$3$15
    Opus 4.6(最強)$5$25
    Haiku 4.5(輕量)$1$5

    以一般對話 input:output ≈ 3:1 的比例估算,$20 大約可換 3~5 百萬 tokens


    2. 各功能 Token 消耗估算

    以下數據來自實際使用 Cowork(桌面協作功能)和 Gmail 連接器的經驗整理,供參考。

    2-1. 一般對話(輕量)

    每次消耗:2,000 ~ 8,000 tokens

    最基本的問答,消耗最低。拿來解釋概念、腦力激盪都沒問題,一個 session 配額可以撐很久。


    2-2. Gmail 連接器 / 撈信件資料(中量)

    操作消耗估算
    搜尋幾封信(只看標題 / 摘要)5,000 ~ 15,000 tokens
    讀取完整郵件內容(每封)+3,000 ~ 10,000 tokens
    大量搜尋 + 多輪整理(如稅務信整理)50,000 ~ 120,000 tokens

    注意事項: Gmail、Google Calendar 這類 MCP 連接器,每次呼叫都會把完整的工具定義(schema)注入 context,光是「開啟連接器」這個動作本身就有固定 token 開銷,跟你有沒有真的搜尋到東西無關。

    建議:先用精準關鍵字縮小搜尋範圍,確定要哪幾封再讀全文,避免廣撒網式多輪搜尋。


    2-3. Cowork 生成 Word / Excel / PowerPoint(中高量)

    功能單次消耗估算每次來回修改
    Word(.docx)15,000 ~ 40,000+5,000 ~ 15,000
    Excel(.xlsx)10,000 ~ 30,000+5,000 ~ 10,000
    PowerPoint(.pptx)20,000 ~ 60,000+8,000 ~ 20,000

    消耗偏高的主要原因是:Cowork 每次生成文件,都需要先讀取一份很長的內建教學文件(SKILL.md),才能知道怎麼用 Python 正確生成對應格式的檔案。PowerPoint 最貴,因為教學文件最大、輸出頁面最多。

    建議:一次給清楚的需求,盡量減少來回修改次數。 每一輪修改都要把整個 context 重新送一遍,成本不低。


    2-4. Cowork 寫代碼 / 跑分析(高量)

    情境消耗估算
    簡單腳本(單一任務、單檔)10,000 ~ 30,000 tokens
    中型任務(含除錯往返 2~3 輪)30,000 ~ 100,000 tokens
    複雜研究代碼(含讀取多份文件、資料分析)50,000 ~ 150,000+ tokens

    對於有讀取文件、執行 bash 指令的任務,工具輸出的原始結果會完整進入 context,例如 cat 一份 500 行的文件,那 500 行就全部塞進去了。Session 越長、context 越肥,後面每一輪的成本就越高。


    3. 消耗彙整對照表

    功能消耗等級單次估算(tokens)
    一般問答🟢 輕量2,000 ~ 8,000
    Gmail 搜尋信件🟡 中量5,000 ~ 15,000
    Gmail 大量整理🟠 中高量50,000 ~ 120,000
    生成 Excel🟠 中高量10,000 ~ 30,000
    生成 Word🟠 中高量15,000 ~ 40,000
    生成 PowerPoint🔴 高量20,000 ~ 60,000
    寫代碼(簡單)🟠 中高量10,000 ~ 30,000
    寫代碼(複雜)🔴 高量50,000 ~ 150,000+

    4. 省 Token 的實用技巧

    ① CLAUDE.md 保持精簡
    如果你有用 Cowork 並設定了 CLAUDE.md,這份文件的內容會在每一輪對話開始時全部注入 context。文件有 5,000 tokens,等於每次互動都先扣掉 5,000 tokens,還沒看你的問題就先燒掉了。建議主文件只放路徑指引,細節拆到子文件,用到再讀。

    ② 一次把需求說清楚
    每一個 follow-up 訊息都會把整個對話歷史重新送一遍。如果有三個相關問題,合併成一則訊息問,比分三次問省很多。

    ③ MCP 工具搜尋要精準
    Gmail 等連接器的搜尋結果如果太廣,返回大量原始資料進 context 會非常貴。先縮小搜尋範圍再讀全文。

    ④ 善用離峰時段(針對日本用戶)
    Anthropic 在平日峰值時段(ET 08:00–14:00,即 JST 22:00–04:00)會限縮 session 配額。日本時間的白天(JST 04:00–22:00)和週末全天屬於離峰,配額相對寬鬆,適合安排大型任務。

    ⑤ 避免在同一 session 重複讀取同一檔案
    Cowork 在同一 session 內如果多次讀取相同文件,每次都是全額計費,這是最常見的浪費來源之一。


    5. $20 免費額度對 Pro 用戶的實際意義

    這次的 $20 免費額度是 Extra Usage 形式,不是訂閱配額的加倍,而是「配額用完後的應急緩衝」:

    • 純對話用途:大約可以多撐數百到上千則訊息
    • Cowork 生成文件為主:大約可以多撐 20~60 個工作 session
    • 重度代碼分析(每 session 燒 100K+ tokens):大約 10~30 個 session

    有效期限是領取後 90 天,過期歸零。

    領取步驟(僅限網頁版,4/17 前):

    1. 登入 claude.ai 網頁版
    2. 進入 Settings > Usage
    3. 找到 Extra usage,開啟開關
    4. 點擊「Claim」領取
    5. 記得關掉 Auto-reload(自動加值),否則額度用完系統會自動刷卡補值

    以上數據為估算值,實際消耗會因對話長度、工具使用頻率、模型選擇而有所不同。如果有不同的使用經驗歡迎留言分享。

    2025年3月9日 星期日

    Design of Electrolyte Using Deep Eutectic Solvents for High-Performance Rechargeable Nickel-Iodine Batteries

     Abstract

    Rechargeable nickel-ion batteries (RNiBs) have attracted significant attention because of their high volumetric density, low cost, environmental friendliness, and easy recyclability. In this study, a rechargeable nickel-iodine battery using a rational design of a deep eutectic solvent (DES) electrolyte based on a conversion reaction mechanism is first demonstrated. The rechargeable Ni-I2 battery with the DES electrolyte delivered a specific capacity of 201 mAh g−1 with a coulombic efficiency of 82.5% over 65 cycles at a current density of 0.3 A g−1. The energy storage mechanism can be attributed to I+/I− redox chemistry, which has been validated by ex situ Raman, X-ray photoelectron spectroscopy (XPS) and X-ray absorption spectroscopy (XAS). The study provides an avenue for exploring rechargeable nickel-ion batteries with DES electrolytes based on the conversion reaction mechanism.

     

    2025年2月17日 星期一

    深度學習模型權重檔案格式與存放目錄

     隨著深度學習模型的發展,越來越多的開發者透過 GitHubHugging Face 分享模型權重,以便其他人可以下載並加以應用。但不同的深度學習框架有各自的儲存格式與資料夾結構,因此了解這些規範能幫助我們更快速找到所需的模型。

    1. 常見的深度學習權重檔案格式

    不同的深度學習框架使用不同的檔案格式來儲存模型的權重,以下是最常見的副檔名:

    副檔名

    用途

    對應框架

    .bin

    PyTorch 模型權重 (Hugging Face)

    PyTorch

    .pth / .pt

    PyTorch 權重 (state_dict 或完整模型)

    PyTorch

    .safetensors

    更安全的 PyTorch 權重存儲格式

    PyTorch, Hugging Face

    .pb

    TensorFlow Frozen Graph

    TensorFlow

    .ckpt

    TensorFlow PyTorch Checkpoint

    TensorFlow, PyTorch

    .h5

    Keras/TensorFlow 權重

    TensorFlow, Keras

    .tflite

    TensorFlow Lite 模型

    TensorFlow Lite

    .msgpack

    Chainer 權重存儲格式

    Chainer

    .npz

    JAX NumPy 存儲格式

    JAX, NumPy

    .onnx

    ONNX 格式,方便跨框架使用

    ONNX


    當下載 Hugging Face 或 GitHub 上的模型時,可以根據這些副檔名來判斷模型的格式並選擇合適的框架來載入。


    2. 深度學習模型權重的儲存目錄

    不同的框架與專案通常會將模型權重存放在特定的目錄中,以下是最常見的結構與對應的儲存位置:

    (1) Hugging Face (transformers, diffusers, sentence-transformers 等)

    Hugging Face 的模型通常儲存在 model 相關的資料夾下,例如:

    /model
      ├── config.json
      ├── pytorch_model.bin  # PyTorch 權重
      ├── model.safetensors  # SafeTensors 權重
      ├── tf_model.h5        # TensorFlow 權重
      ├── tokenizer.json
      ├── special_tokens_map.json
    

    有些大型模型(如 LLaMA)會有多個拆分的 .bin 權重檔案:

    /model
      ├── pytorch_model-00001-of-00003.bin
      ├── pytorch_model-00002-of-00003.bin
      ├── pytorch_model-00003-of-00003.bin
      ├── tokenizer.json
      ├── config.json
    

    📌 相關目錄/model/, /weights/, /checkpoints/, /snapshots/


    (2) PyTorch(GitHub 上常見的專案結構)

    PyTorch 模型的權重通常儲存在 weightscheckpoints 目錄:

    /project_root
      ├── models/
      │   ├── model.py
      │   ├── __init__.py
      ├── weights/
      │   ├── best_model.pth
      │   ├── last_checkpoint.pth
      ├── checkpoints/
      │   ├── epoch_10.pth
      │   ├── epoch_20.pth
    

    📌 相關目錄/weights/, /checkpoints/, /models/, /logs/


    (3) TensorFlow/Keras

    TensorFlow 和 Keras 的權重通常儲存在 checkpointssaved_model 目錄:

    /project_root
      ├── checkpoints/
      │   ├── model.ckpt.index
      │   ├── model.ckpt.data-00000-of-00001
      │   ├── checkpoint
      ├── saved_model/
      │   ├── assets/
      │   ├── variables/
      │   ├── saved_model.pb
    

    📌 相關目錄/checkpoints/, /saved_model/, /logs/


    (4) ONNX(跨框架模型)

    ONNX 模型通常存放在 onnx_modelsexported_models 目錄:

    /project_root
      ├── onnx_models/
      │   ├── model.onnx
      ├── exported_models/
      │   ├── model.onnx
    

    📌 相關目錄/onnx_models/, /exported_models/


    (5) 擴散模型(Stable Diffusion, ControlNet)

    擴散模型通常使用 .safetensors.ckpt 格式,並存放在 models 目錄中:

    /stable-diffusion
      ├── models/
      │   ├── stable-diffusion-v1-4.ckpt
      │   ├── stable-diffusion-v2.safetensors
      ├── configs/
      │   ├── v1-inference.yaml
    

    📌 相關目錄/models/, /diffusion_models/


    總結

    框架/類型

    常見儲存目錄

    Hugging Face

    /model//weights//checkpoints//snapshots/

    PyTorch

    /weights//checkpoints//models//logs/

    TensorFlow

    /checkpoints//saved_model//logs/

    ONNX

    /onnx_models//exported_models/

    擴散模型

    /models//diffusion_models/


    2025年1月13日 星期一

    深度學習中的稀疏性:提升效率還是削弱能力?

     

    在深度學習領域,「稀疏性(Sparsity)」是一個關鍵概念,它指的是數據或模型參數中有許多值為零的特性。這種特性可以提升計算效率、減少記憶體需求,甚至提高模型的泛化能力。但這是否意味著「零越多越好」呢?其實,關鍵在於如何適當地控制稀疏性,以達到最好的平衡。本文將介紹深度學習中幾種常見的稀疏性類型,以及它們在實際應用中的影響。

    1. 稀疏性類型與應用

    (1) 參數稀疏性(Model Sparsity)

    指的是神經網路中的權重矩陣大部分為零。這可以透過 L1 正則化(Lasso)、剪枝(Pruning)低秩分解(Low-rank Factorization) 來實現。

    舉例: 假設一個神經網路的權重矩陣如下:

    W=[0.500.20000.300.8]W = \begin{bmatrix} 0.5 & 0 & 0.2 \\ 0 & 0 & 0 \\ -0.3 & 0 & 0.8 \end{bmatrix}

    這裡有 6 個元素為 0(總共 9 個參數),稀疏度為 66.7%。這樣的矩陣可以減少儲存需求,並透過稀疏矩陣運算提升計算速度。


    (2) 激活稀疏性(Activation Sparsity)

    當使用 ReLU(Rectified Linear Unit)激活函數時,負數輸入會變成 0,導致許多神經元「沉默」。

    舉例: 輸入矩陣 XX

    X=[210.5304120.7]X = \begin{bmatrix} 2 & -1 & 0.5 \\ -3 & 0 & 4 \\ 1 & -2 & -0.7 \end{bmatrix}

    經過 ReLU 激活後:

    ReLU(X)=[200.5004100]\text{ReLU}(X) = \begin{bmatrix} 2 & 0 & 0.5 \\ 0 & 0 & 4 \\ 1 & 0 & 0 \end{bmatrix}

    這裡產生了 4 個零值(共 9 個元素),稀疏度約為 44.4%。這有助於減少計算,但若太多神經元變為 0,可能影響模型學習能力。


    (3) 特徵稀疏性(Feature Sparsity)

    指的是輸入數據本身為稀疏的,例如 自然語言處理(NLP) 的詞袋模型(BoW)、推薦系統的用戶-物品互動矩陣等。

    舉例: 詞頻向量(Bag of Words):

    BoW=[1005002]\text{BoW} = \begin{bmatrix} 1 & 0 & 0 & 5 & 0 & 0 & 2 \end{bmatrix}

    只有 3 個非零值,表示這段文字只包含 3 個詞。這樣的稀疏特徵能夠壓縮存儲並提升計算效率。


    (4) 梯度稀疏性(Gradient Sparsity)

    在深度學習訓練中,部分權重的梯度可能接近 0,意味著它們對損失函數的貢獻很小。

    舉例: 梯度矩陣:

    Gradient=[0.0100.0200000.030]\text{Gradient} = \begin{bmatrix} 0.01 & 0 & -0.02 \\ 0 & 0 & 0 \\ 0 & 0.03 & 0 \end{bmatrix}

    分散式訓練 時,僅傳輸非零梯度可減少通信成本,提高計算效率。


    (5) 注意力稀疏性(Sparse Attention)

    Transformer 模型(如 BERT, GPT)中,自注意力機制計算量為 O(n2)O(n^2)。透過「稀疏注意力」,模型可聚焦於關鍵資訊,減少計算量。

    舉例:

    A=[0.10.30.050.020.00.60.00.00.00.20.00.00.050.00.00.4]A = \begin{bmatrix} 0.1 & 0.3 & 0.05 & 0.02 \\ 0.0 & 0.6 & 0.0 & 0.0 \\ 0.0 & 0.2 & 0.0 & 0.0 \\ 0.05 & 0.0 & 0.0 & 0.4 \end{bmatrix}

    這樣的設計可降低 Transformer 計算複雜度,提升運算效率。


    2. 0 越多越好嗎?

    許多人會問:「如果讓更多參數變成 0,是否代表更好的模型?」答案是否定的。過度稀疏會導致 信息丟失,影響模型的表現。

    適當稀疏與過度稀疏的影響

    應用場景

    適當稀疏的好處

    過度稀疏的風險

    模型壓縮(剪枝)

    減少模型大小,加快運算

    削弱表達能力,影響準確度

    ReLU 激活

    過濾無效資訊,提高計算效率

    過多神經元變成 0,影響學習

    NLP 稀疏注意力

    只關注重要詞,提高效率

    忽略重要詞,影響理解

    推薦系統(特徵稀疏)

    加速運算,減少存儲需求

    缺少重要的交互信息


    3. 如何控制稀疏度?

    要讓模型既能利用稀疏性提升效率,又不會過度影響學習能力,可以考慮以下方法:

    1. 逐步調整剪枝比例(如 30%、50%、70%)來測試影響。
    2. 使用 L1 正則化 來鼓勵但不強制 0 值。
    3. 採用動態稀疏技術(Dynamic Sparsity),讓模型在訓練中自行選擇要稀疏的部分。

    結論

    稀疏性是一種強大的工具,能夠提升深度學習的運算效率,但「零越多越好」的想法是錯誤的。關鍵在於 適當平衡稀疏與模型表達能力,才能在效率與準確度之間取得最佳效果。

    你是否在使用稀疏性來加速你的深度學習模型?歡迎在留言區分享你的經驗!

    2024年12月8日 星期日

    [文章轉貼] PyTorch GPU加速指南:如何使用CUDA進行基本操作

    文章轉自微信公眾號:阿旭演算法與機器學習

    文章原始連結:https://mp.weixin.qq.com/s/OJ1_S0b39VIr7_4kfn5Yaw

    引言

    CUDA(Compute Unified Device Architecture)是NVIDIA專有的平行運算平台和程式設計模型。使用CUDA SDK,開發人員可以利用他們的NVIDIA GPU(圖形處理單元),從而使他們能夠在通常的程式設計工作流程中引入基於GPU的平行處理能力,而不是通常的基於CPU的順序處理能力。

    隨著近年來深度學習的興起,可以看到模型訓練中涉及的各種運算,如矩陣乘法,求逆等,可以在很大程度上並行化,以獲得更好的學習表現和更快的訓練週期。因此,許多像Pytorch這樣的深度學習函式庫使用戶能夠使用一組介面和實用程式函數來利用GPU。本文將介紹在任何包含支援CUDA的GPU的系統中設定CUDA環境,並簡要介紹使用Python的Pytorch庫中提供的各種CUDA操作。

    查看GPU支援的CUDA版本

    在cmd控制台輸入navidia-smi查看GPU支援的最高CUDA版本:




    如上圖所示,最高支援的CUDA版本為12.5,版本可以向下相容。因此安裝的CUDA版本必須小於或等於12.5版本。

    安裝GPU版Pytorch

    首先,透過官方Nvidia CUDA相容性清單檢查其係統的GPU,以確保其GPU是否啟用CUDA。 Pytorch透過提供一個很好的使用者友善介面,讓您選擇作業系統和其他要求,讓CUDA安裝過程非常簡單,如下圖所示。根據我們的計算機,我們將根據下圖中給出的規格進行安裝。

    參考Pytorch的官方連結:https://pytorch.org/get-started/locally/,根據他們的電腦規格選擇規格。我們還建議在安裝後完全重新啟動系統,以確保工具包的正常運作。




    Pytorch安裝頁面截圖

    pip3 install torch==1.9.0+cu102 torchvision==0.10.0+cu102 torchaudio=0.9.0 -f https://download.pytorch.org/whl/torch_stable.html

    在Pytorch中開始使用CUDA

    安裝後,我們可以使用torch.cuda介面使用Pytorch與CUDA互動。我們將使用以下函數:

    文法:

    1. torch.version.cuda() :傳回目前安裝的軟體包的CUDA版本
    2. torch.cuda.is_available():如果您的系統支援CUDA,則傳回True,否則傳回False
    3. torch.cuda.current_device():傳回目前裝置的ID
    4. torch.cuda.get_device_name(device_ID):傳回ID = 'device_ID'的CUDA裝置的名稱

    代碼:

    import torch

    print(f"CUDA是否可用? {torch.cuda.is_available()}")
    print(f"当前CUDA 版本: {torch.version.cuda}")

    # Storing ID of current CUDA device
    cuda_id = torch.cuda.current_device()
    print(f"当前CUDA ID:{torch.cuda.current_device()}")

    print(f"CUDA设备名称:{torch.cuda.get_device_name(cuda_id)}")

    輸出:



    使用CUDA處理張量

    為了透過CUDA互動Pytorch張量,我們可以使用以下實用函數:

    文法:

    • tensor.device:傳回「Tensor」所在的裝置名稱
    • Tensor.to(device_name):傳回「device_name」指定的裝置上的「Tensor」的新實例:「cpu」表示CPU,「cuda」表示支援CUDA的GPU
    • tensor.cpu():將「Tensor」從目前裝置傳輸到CPU

    為了示範上述函數,我們將建立一個測試張量並執行以下操作:

    檢查張量的目前設備並應用張量操作(平方),將張量傳輸到GPU並應用相同的張量操作(平方),並比較2個設備的結果。

    代碼:

    import torch

    # Creating a test tensor
    x = torch.randint(1100, (100100))

    # Checking the device name:
    # Should return 'cpu' by default
    print(x.device)

    # Applying tensor operation
    res_cpu = x ** 2

    # Transferring tensor to GPU
    x = x.to(torch.device('cuda'))

    # Checking the device name:
    # Should return 'cuda:0'
    print(x.device)

    # Applying same tensor operation
    res_gpu = x ** 2

    # Checking the equality
    # of the two results
    assert torch.equal(res_cpu, res_gpu.cpu())

    輸出:

    cpu
    cuda : 0

    使用CUDA處理深度學習模型

    一個好的Pytorch實踐是產生與裝置無關的程式碼,因為某些系統可能無法存取GPU,只能依賴CPU,反之亦然。完成後,可以使用以下函數將任何機器學習模型傳輸到所選設備上

    用法: Model.to(device_name):

    傳回:「device_name」指定的裝置上的機器學習「Model」的新實例:「cpu」表示CPU,「cuda」表示啟用CUDA的GPU

    在本例中,我們從torchvision.models實用程式匯入預先訓練的Resnet-18模型,讀者可以使用相同的步驟將模型傳輸到所選設備。

    代碼:

    import torch
    import torchvision.models as models

    # Making the code device-agnostic
    device = 'cuda' if torch.cuda.is_available() else 'cpu'

    # Instantiating a pre-trained model
    model = models.resnet18(pretrained=True)

    # Transferring the model to a CUDA enabled GPU
    model = model.to(device)