AI 観測。
天体観測のように、
ローカル LLM を眺める。
Pastura は端末の中で動く、AI エージェントたちの閉じた牧場。
あなたの書いたシナリオをエージェント達が演じる。
アリス:公園を歩くのが好き。
アリス(内心):公園って曖昧。たいていの屋外ワードに当てはまる。
ボブ:自分も。最近、近所をぶらぶらしてる。
ボブ(内心):アリスに合わせよう。様子を見るまでは無難に。
デイブ:僕はちょっと違うかな。計画しないとダメなんだよね。
デイブ(内心):散歩…?自分は全く違う。曖昧にやり過ごそう。
Pastura とは
Pastura は、シナリオを書いたら、眺めるだけ。
Pastura は AI エージェントたちの会話を観察する窓。
他のアプリと違い、ユーザーは発言できない。
エージェント達は、発言、議論、裏切り、投票、あるいは静かに考えている。
使い方
3 ステップで、静かに観察。
Step 01. LLM のモデルを選び、しばし待つ。
Gemma 4 E2B か Qwen 3 4B、それぞれ約 3 GBを端末にダウンロード。 ダウンロードの間は、進捗バーの隣で犬がおすわり。しばしの辛抱。
Step 02. シナリオを選ぶか、書く。
初期シナリオはワードウルフや囚人のジレンマなど。 共有シナリオからシナリオ追加も可能。 ビジュアルエディターやYAMLで独自シナリオも書ける。 名前、ペルソナ、フェーズ、勝利条件などをフォームで入力。
Step 03. 一歩下がって、エージェントの会話を観察。
発言、内心の声、投票、スコアをリアルタイムで表示。 同じシナリオ、同じモデルでもエージェントの発言は毎回ちょっと違う。モデルを変えるとどうなるかな。
アリス:公園のベンチで本を読むのも好き。
アリス(内心):ベンチで少し絞り込めた。でも、まだ怪しまれない範囲。
デイブ:自分のは正直、公園系じゃないかな。
デイブ(内心):…ベンチに触れたのはアリスだけ。気になる。
機能
Pastura の特徴
-
宣言的なシナリオ
推論する前に、世界を書く。
ペルソナ、フェーズ、勝利条件をフォームで定義。YAMLで直接編集もできる。コードのように何度でも再実行できる。
-
切り替え可能なモデル
ローカルモデルを選ぼう。
現在は Gemma 4 E2B と Qwen 3 4B をサポート。それぞれ約 3 GB。他のモデルも準備中。好きなモデルを選んで、いつでも切り替えられる。サーバー不要で、すべて端末内で動く。
-
共有シナリオ
ほかの人が書いたものを、覗く。
コミュニティシナリオの厳選ギャラリー。プレビューして、ワンタップでインポート、選んだモデルで再生できる。今はオフィシャルなシナリオのみ。共有シナリオへの投稿機能は将来対応予定。
-
エクスポートログ
会話を持ち出し。
観察ログを Markdown でエクスポート。ノートブックに貼る、リポジトリにコミットする、gist で共有する。記録はあなたの自由に使って。
-
データの外部送信はなし
約束ではなく、仕組みで守るプライバシー。
ローカル LLM の名前の通り、推論は端末上で行う。機内モードでも動き、端末からは何も出ない。テレメトリも分析も、「匿名統計を送信」のチェックボックスを巡る議論も、ない。
なぜローカル処理か
~3 GB を一度だけ。
クラウドに 1 バイトも送らない。 プライバシー、コスト、レイテンシ、データ。 他人のサーバーではなく自分の端末にモデルを置く、それですべて片付く。
クラウド呼び出し:0 回
月額:0 円
端末から出るデータ:0 バイト
端末上のストレージ:~3 GB (モデルによる)
より大きな視野で
天体観測は、空の星の眺めを教えた。
AI 観測は、ローカル LLM の眺めを教える。
人類が作った AI の様子を、立ち止まって眺めることはあまりない。
Pastura はそのための窓。静かに端末の中で動く、あなた一人のもの。
AI 観測が彼らについて何かを語るのか、それとも私たち自身についてかは、観察する人への宿題。
FAQ
みんな気になる、よくある質問。
無料ですか?
はい。サーバー料金もサブスクリプションもありません。
どの iPhone で動きますか?
iPhone 15 Pro 以降、iOS 17 以上です。オンデバイスのモデルが約 8 GB の RAM を要するため、iPhone 15(無印)以前は現在のところ対象外です。
なぜ iOS だけなんですか?
開発の都合上、今のところ iOS のみです。Android もいずれ対応予定です。
自分は会話に参加できないんですか?
はい、あえてそうしています。Pastura は LLM とのチャットではなく、LLM エージェントを眺めるアプリ。人が入ると、エージェント同士の素のやり取りは見られなくなってしまいます。
シミュレーションの速度はどのくらい?
推論は Metal GPU 上で走ります。iPhone 16e で Gemma 4 E2B を使った実測では 9〜16 tok/s 程度。およそ 10 tok/s 以上あれば、ストレスなく会話を読めます。アプリ内のリアルタイム tok/s 表示で、今どのくらいの速度で動いているかも確認できます。
バッテリーや発熱は大丈夫ですか?
ローカル推論は SoC を使うので、消費はゼロではありません。Pastura は発熱状態を見て自動的にペースを落としますが、長めのセッションでは多少の発熱は避けられません。
ほかの LLM モデルの追加はできますか?
サポートページで要望を出してください。必ず対応するとは約束できませんが、ご意見は参考にします。