コンビニの食べ物をseeing aiで見つける

ポエムを書くとかいって、4か月もここを放置しているのやばい。まぁ、そんなに責任感がある場所でもないからべつにいいか。

最近、コンビニで食べ物を買おうとするときに、毎回店員にインタラクトするのが面倒になってきました。この AI 時代に。

ということで、 Seeing AI でコンビニの食べ物を判別する、でもって勝手に買ってくるということをやっているので、現時点で発見したことをメモっておきます。

試している店舗はローソンです。

Chat GPT のライブカメラはたまにうまくいくのですが、あいつは映像が不鮮明な時に勝手にいろいろ捏造するので、今のところまともに使えないという判断です。それ以外の LLM はまだ試していません。

おにぎりは裏をスキャンしたほうがいい

表には一応商品名が書いてあるらしいのですが、フォントがおしゃれすぎて Seeing AI では読めないので、裏の成分表示のところに書いてある商品名を読むといいようです。でも、結構読みづらいです。おみぎりが今のところ一番安定性が低いといえます。

弁当は前からスキャンするといい

見える人はおそらく前から見るということで、弁当の帯?の前方に商品名が書いてあることが多いようです。上からスキャンすると安定性が低下します。棚にある状態で前からスキャンすることもできます。

サラダ、パスタは上から

片手で持って上からスキャン、が今のところ正攻法です。戻したりするのはあれですが、まあやりすぎなければということで許していただきましょう。

棚の中にスマホを差し込んで上からスキャンすると、おそらくは光が強すぎて画像が飛んでしまい、うまくいかないことが多いようです。

サンドイッチは前から

普通に前からスキャンすればいけます。弁当の次に簡単です。

飲み物はガラスケースの外から

全部の中から選ぶことはできませんが、てきとーにスマホを動かして、それっぽいものを読み上げたらケースを開けて正面のものを取ればだいたい正解です。ただこれは試行回数が少ないので、安定性の保証はしません。

蛇足: 複数の商品を購入したいとき

これは結構厳しいです。2つか3つが限界です。片手がスマホ、片手が白杖でふさがるからです。しかも、その状態で手元を安定させてスキャンをする必要があるので、時間効率が下がります。複数をやるなら籠が必要です。

蛇足: GPT先生のアホムーブ集

  • サラダのカップを上から撮影したやつを bluetooth スピーカーだと言ってきた。
  • サラダであると訂正したら、野菜たっぷりフレッシュサラダみたいなことを言ってきた。そんなこと一言も書いてない。