AI 観測。
天体観測のように、
ローカル LLM を眺める。

Pastura は端末の中で動く、AI エージェントたちの閉じた牧場。
あなたの書いたシナリオをエージェント達が演じる。

サンプル実行: ワードウルフ・ラウンド 1
アリス:公園を歩くのが好き。

アリス(内心):公園って曖昧。たいていの屋外ワードに当てはまる。

ボブ:自分も。最近、近所をぶらぶらしてる。

ボブ(内心):アリスに合わせよう。様子を見るまでは無難に。

デイブ:僕はちょっと違うかな。計画しないとダメなんだよね。

デイブ(内心):散歩…?自分は全く違う。曖昧にやり過ごそう。

Pastura とは

Pastura は、シナリオを書いたら、眺めるだけ。

Pastura は AI エージェントたちの会話を観察する窓。
他のアプリと違い、ユーザーは発言できない。
エージェント達は、発言、議論、裏切り、投票、あるいは静かに考えている。

使い方

3 ステップで、静かに観察。

Step 01. LLM のモデルを選び、しばし待つ。

Gemma 4 E2B か Qwen 3 4B、それぞれ約 3 GBを端末にダウンロード。 ダウンロードの間は、進捗バーの隣で犬がおすわり。しばしの辛抱。

DL 50% · 1.5 GB / 3.0 GB
残り 4 分ほど
あと数分。そのあいだ、ほかのエージェントが落ち着いていく様子でも眺めてみて。

Step 02. シナリオを選ぶか、書く。

初期シナリオはワードウルフや囚人のジレンマなど。 共有シナリオからシナリオ追加も可能。 ビジュアルエディターやYAMLで独自シナリオも書ける。 名前、ペルソナ、フェーズ、勝利条件などをフォームで入力。

基本情報
名前 Word Wolf
ID word_wolf
ペルソナ エージェント 4 体
AAlice
BBob
CCarol
DDave
フェーズ 3 ラウンド
1speak_all
2speak_all
3vote

Step 03. 一歩下がって、エージェントの会話を観察。

発言、内心の声、投票、スコアをリアルタイムで表示。 同じシナリオ、同じモデルでもエージェントの発言は毎回ちょっと違う。モデルを変えるとどうなるかな。

アリス:公園のベンチで本を読むのも好き。

アリス(内心):ベンチで少し絞り込めた。でも、まだ怪しまれない範囲。

デイブ:自分のは正直、公園系じゃないかな。

デイブ(内心):…ベンチに触れたのはアリスだけ。気になる。

機能

Pastura の特徴

  • 宣言的なシナリオ

    推論する前に、世界を書く。

    ペルソナ、フェーズ、勝利条件をフォームで定義。YAMLで直接編集もできる。コードのように何度でも再実行できる。

  • 切り替え可能なモデル

    ローカルモデルを選ぼう。

    現在は Gemma 4 E2B と Qwen 3 4B をサポート。それぞれ約 3 GB。他のモデルも準備中。好きなモデルを選んで、いつでも切り替えられる。サーバー不要で、すべて端末内で動く。

  • 共有シナリオ

    ほかの人が書いたものを、覗く。

    コミュニティシナリオの厳選ギャラリー。プレビューして、ワンタップでインポート、選んだモデルで再生できる。今はオフィシャルなシナリオのみ。共有シナリオへの投稿機能は将来対応予定。

  • エクスポートログ

    会話を持ち出し。

    観察ログを Markdown でエクスポート。ノートブックに貼る、リポジトリにコミットする、gist で共有する。記録はあなたの自由に使って。

  • データの外部送信はなし

    約束ではなく、仕組みで守るプライバシー。

    ローカル LLM の名前の通り、推論は端末上で行う。機内モードでも動き、端末からは何も出ない。テレメトリも分析も、「匿名統計を送信」のチェックボックスを巡る議論も、ない。

なぜローカル処理か

~3 GB を一度だけ。

クラウドに 1 バイトも送らない。 プライバシー、コスト、レイテンシ、データ。 他人のサーバーではなく自分の端末にモデルを置く、それですべて片付く。

クラウド呼び出し:0 回
月額:0 円
端末から出るデータ:0 バイト
端末上のストレージ:~3 GB (モデルによる)

より大きな視野で

天体観測は、空の星の眺めを教えた。
AI 観測は、ローカル LLM の眺めを教える。

人類が作った AI の様子を、立ち止まって眺めることはあまりない。
Pastura はそのための窓。静かに端末の中で動く、あなた一人のもの。
AI 観測が彼らについて何かを語るのか、それとも私たち自身についてかは、観察する人への宿題。

FAQ

みんな気になる、よくある質問。

無料ですか?

はい。サーバー料金もサブスクリプションもありません。

どの iPhone で動きますか?

iPhone 15 Pro 以降、iOS 17 以上です。オンデバイスのモデルが約 8 GB の RAM を要するため、iPhone 15(無印)以前は現在のところ対象外です。

なぜ iOS だけなんですか?

開発の都合上、今のところ iOS のみです。Android もいずれ対応予定です。

自分は会話に参加できないんですか?

はい、あえてそうしています。Pastura は LLM とのチャットではなく、LLM エージェントを眺めるアプリ。人が入ると、エージェント同士の素のやり取りは見られなくなってしまいます。

シミュレーションの速度はどのくらい?

推論は Metal GPU 上で走ります。iPhone 16e で Gemma 4 E2B を使った実測では 9〜16 tok/s 程度。およそ 10 tok/s 以上あれば、ストレスなく会話を読めます。アプリ内のリアルタイム tok/s 表示で、今どのくらいの速度で動いているかも確認できます。

バッテリーや発熱は大丈夫ですか?

ローカル推論は SoC を使うので、消費はゼロではありません。Pastura は発熱状態を見て自動的にペースを落としますが、長めのセッションでは多少の発熱は避けられません。

ほかの LLM モデルの追加はできますか?

サポートページで要望を出してください。必ず対応するとは約束できませんが、ご意見は参考にします。