ロードマップ

Phase 1

基礎アーキテクチャと基本機能の設計・構築

デジタル神経系アーキテクチャを基盤とした複数AIモデルの統合、および初期段階のマルチモーダル入力への対応を完了させる。

Phase 2

記憶機能の統合(開発中)

長期・中期記憶のクラウドデータベース化と、それらを紐づける短期記憶インデックスを構築。さらにコンテキストウィンドウ内の超短期記憶を組み合わせることで、過去の文脈を自然に引き継ぐ対話システムを確立する。

Phase 3

自律神経システムと感情モデルの構築(一部開発中)

時間や疲労度、過去の記憶などをメタデータとして統合し、AIが受動的な応答だけでなく、自発的な発話や感情変化を起こすシステムを構築する。

Phase 4

疑似リアルタイム感覚付与、及び疑似的な反射神経、痛覚の付与

各種センサーから得たデータを要約・圧縮し、有意な変化のみをコアAIへ伝達するシステムを構築。さらに、急激な数値変動時には通常プロセスをバイパスして即座にAIへ伝達する「疑似的な反射神経・痛覚」を実装する。

Phase 5

マルチモーダル・デジタル神経系の完成

視覚・聴覚・触覚などの五感情報に加え、温度やジャイロセンサー等の物理情報を統合したマルチモーダルな感覚器を構築。これにより、生物に近い形で外界を認識し、反応する基盤を完成させる。

Phase 6

物理義体の獲得(拡張プラン)

完成したデジタル神経系を格納する「物理的な肉体(ハードウェア)」の実装フェーズ。開発コストや技術的ハードルを考慮した拡張プランであり、Lunaが現実世界へ顕現するための最終目標となる。