MITキッチンコスモ:AIが冷蔵庫の材料でレシピを作ってくれる

3つの核心ポイント

  • MITでAIレシピ生成キッチン機器「Kitchen Cosmo」を開発
  • カメラで材料を認識後、ユーザーに合わせたレシピをプリンターで出力
  • LLMを物理的な世界に拡張する「Large Language Objects」の概念を提示

何が起こったのか?

MIT建築学科の学生たちがAIベースのキッチン機器「Kitchen Cosmo」を開発した。[MIT News] 高さ約45cm(18インチ)のこの機器は、ウェブカメラで材料を認識し、ダイヤルでユーザー入力を受け、内蔵の感熱プリンターでレシピを出力する。

このプロジェクトは、MITのMarcelo Coelho教授が率いるDesign Intelligence Labで進められた。建築学大学院生のJacob Payneとデザイン専攻4年生のAyah Mahmoudが参加した。[MIT News]

なぜ重要なのか?

正直なところ、このプロジェクトが興味深い理由は、技術そのものよりも哲学にある。Coelho教授はこれを「Large Language Objects(LLOs)」と呼ぶ。LLMを画面から取り出し、物理的な事物にする概念だ。

Coelho教授は「この新しい形態の知能は強力だが、依然として言語の外の世界には無知だ」と述べた。[MIT News] 簡単に言えば、ChatGPTはテキストはよく知っているが、冷蔵庫の中に何があるかは知らない。Kitchen Cosmoはそのギャップを埋める。

個人的には、これがAIインターフェースの未来を示していると見ている。画面をタッチしてタイピングする代わりに、物を見せてダイヤルを回す方式。特に料理のように手が忙しい状況で有用だ。

今後どうなるか?

研究チームは、次のバージョンでリアルタイムの調理ヒントと、複数人で一緒に料理する際の役割分担機能を追加する計画だ。[MIT News] 学生のJacob Payneは「残った材料で何を作るか悩むとき、AIが創造的な活用法を見つけてくれる」と述べた。

この研究が商用製品につながるかは未知数だ。しかし、LLMを物理的なインターフェースに拡張する試みは、今後さらに増えるだろう。

よくある質問(FAQ)

Q: Kitchen Cosmoはどんな材料を認識できるのか?

A: Vision Language Modelを使ってカメラで撮影した材料を認識する。果物、野菜、肉など一般的な食材を識別でき、家にある基本的な調味料も考慮してレシピを生成する。ただし、具体的な認識精度は公開されていない。

Q: レシピ生成にどんな要素を反映するのか?

A: 食事の種類、料理の腕前、利用可能な時間、気分、食事制限、人数を入力できる。また、味のプロファイルと地域の料理スタイル(例:韓国料理、イタリア料理)も選択可能だ。このすべての条件を総合して、カスタムレシピを作り出す。

Q: 一般人が購入できるのか?

A: 現在はMIT研究室のプロトタイプ段階であり、市販計画は発表されていない。学術研究プロジェクトとして始まったため、商用化までは時間がかかると思われる。ただし、同様のコンセプトの製品が他の会社から出る可能性はある。


この記事が役に立ったなら、AI Digesterを購読してください。

参考文献

コメントする