7-11 MobileSAM の開発
学習目標
SAM(Segment Anything Model)は、Meta AI社が開発した強力な画像セグメンテーションモデルで、テキストや座標点など、さまざまな入力情報に基づいたセグメンテーションに対応しています。
しかし、モデルサイズが大きいため、Jetson Orinプラットフォーム上でスムーズに動作させるのは困難です。そこで、パフォーマンスと効率性のバランスを取りながら、同様のセグメンテーション機能を実現するために、軽量版のMobileSAMを使用します。

初期環境設定
sudo apt update && sudo apt install vim
pip3 install ultralytics
pip3 install numpy==1.26.4
MobileSAMを起動する
1. 空のフォルダを作成し、テストイメージをダウンロードする
mkdir -p MobileSAM && cd MobileSAM
wget https://github.com/ultralytics/ultralytics/blob/main/ultralytics/assets/zidane.jpg?raw=true -O zidane.jpg
2. テスト用のPythonファイルを作成する
touch demo.py && vim demo.py
3. 以下のコードを貼り付けてください
from ultralytics import SAM
# Load the model
model = SAM("mobile_sam.pt")
# Predict a segment based on a single point prompt
model.predict("zidane.jpg", points=[900, 370], labels=[1], save=Ture)
4. 実行して結果を確認する
// The results will be automatically saved to runs/segment/predict
python3 demo.py
