睡眠時間が短いせいで、赤福が2日連続で (とは言っても昨日は遅すぎたので想定の範囲内だが) 買えなかったくらいで (就活で落ちまくってる大学生のように) 人生を否定されたお気持ちになっている
@[email protected] prismo
続き(ほんそれ。 QT:
関係ないけどPCとかで「準備しています…」とか「お待ち下さい…」とだけ出てアイコンがくるくる回ってるみたいなの「俺は今一体何を待たされているんだ」ってイライラするし、たとえ意味不明でもコンソールのログがヴァーって流れてる方が安心できるのでGUIでもそこらへん工夫して欲しい
https://twitter.com/shapoco/status/1233923403100221441?s=19
たとえだんまりでもログ出てれば諦めて電源断していいかどうか判断できるかもしれないし、できなくてもコピペしてググったりできるやん。「お待ち下さい…」じゃそれすらもできないからめっちゃストレスフルだし、サポートする方も困ると思う
https://twitter.com/shapoco/status/1233926359035957249?s=19
めもめも。QT:
日本で初めて運転席無人の自動運転車が一般公道を走った瞬間の動画です。
2017年12月14日午前10時
愛知県幸田町
郊外で時速15kmでしたが交差点右左折もあって安全確保が大変でした。あらゆることが初めての経験で学ぶことが多い実証実験でした。 https://twitter.com/ShinpeiKato/status/1233746607851671553?s=19
アニメや映画で自律ロボットの思考を視覚的に表現した場面で「操縦者いないのにこんな人間用のモニターみたいなの無いやろ」と思うことがあるけど、こうして見ると開発者のためには必要なんだなあ
https://twitter.com/shapoco/status/1233918884152897536?s=19
「AIが今何を考えているのか」を可視化する手法っていうのも段々体系化されていくのかもしれないな。既に取り組んでる人もいるんだろうけど
https://twitter.com/shapoco/status/1233921549326942208?s=19
人間の識字では当然これが行われているわけだし、単語単位の辞書方式でなく文脈を把握するのは今後OCRにとって必須になると思われる
"これまでの『間違えないように解析精度をあげよう』と進化を続けてきたOCRとは似て非なるもの。『間違えやすいものを文脈から自動修復する』という進化を遂げたシロモノ
"
認識率98.66%?!たった2ヶ月で手書き日本語のOCRを開発したノンジャパニーズに話を聞いてきた https://ledge.ai/reactive_int/
楽園追放されたオタク