コンビニの食べ物をseeing aiで見つける
ポエムを書くとかいって、4か月もここを放置しているのやばい。まぁ、そんなに責任感がある場所でもないからべつにいいか。
最近、コンビニで食べ物を買おうとするときに、毎回店員にインタラクトするのが面倒になってきました。この AI 時代に。
ということで、 Seeing AI でコンビニの食べ物を判別する、でもって勝手に買ってくるということをやっているので、現時点で発見したことをメモっておきます。
試している店舗はローソンです。
Chat GPT のライブカメラはたまにうまくいくのですが、あいつは映像が不鮮明な時に勝手にいろいろ捏造するので、今のところまともに使えないという判断です。それ以外の LLM はまだ試していません。
おにぎりは裏をスキャンしたほうがいい
表には一応商品名が書いてあるらしいのですが、フォントがおしゃれすぎて Seeing AI では読めないので、裏の成分表示のところに書いてある商品名を読むといいようです。でも、結構読みづらいです。おみぎりが今のところ一番安定性が低いといえます。
弁当は前からスキャンするといい
見える人はおそらく前から見るということで、弁当の帯?の前方に商品名が書いてあることが多いようです。上からスキャンすると安定性が低下します。棚にある状態で前からスキャンすることもできます。
サラダ、パスタは上から
片手で持って上からスキャン、が今のところ正攻法です。戻したりするのはあれですが、まあやりすぎなければということで許していただきましょう。
棚の中にスマホを差し込んで上からスキャンすると、おそらくは光が強すぎて画像が飛んでしまい、うまくいかないことが多いようです。
サンドイッチは前から
普通に前からスキャンすればいけます。弁当の次に簡単です。
飲み物はガラスケースの外から
全部の中から選ぶことはできませんが、てきとーにスマホを動かして、それっぽいものを読み上げたらケースを開けて正面のものを取ればだいたい正解です。ただこれは試行回数が少ないので、安定性の保証はしません。
蛇足: 複数の商品を購入したいとき
これは結構厳しいです。2つか3つが限界です。片手がスマホ、片手が白杖でふさがるからです。しかも、その状態で手元を安定させてスキャンをする必要があるので、時間効率が下がります。複数をやるなら籠が必要です。
蛇足: GPT先生のアホムーブ集
- サラダのカップを上から撮影したやつを bluetooth スピーカーだと言ってきた。
- サラダであると訂正したら、野菜たっぷりフレッシュサラダみたいなことを言ってきた。そんなこと一言も書いてない。