新しいものを表示

GTA5をある程度プレイしたことある人のうちで、GTA5でナビ無くてもほとんど迷わない(大半の道を暗記してる)プレイヤーで、ノースアップ表示が苦手なプレイヤーって存在するんだろうか?><
地理丸暗記しちゃう人でヘディングアップが好きな人って見聞きした事無いんだけど><

久しぶりにカーナビを「ノースアップ設定」にしてる人に会った→ノースアップ派の人たちがわらわらと押し寄せてメリットを挙げる流れに - Togetter [トゥギャッター]
togetter.com/li/2528624

国内主要都市における中心駅と空港との位置関係を比較した図が話題に→「福岡空港はやっぱり最強だな」「成田が都心からどれくらい遠いのかがわかる」 - Togetter [トゥギャッター]
togetter.com/li/2528473

日本以外の地図の方を多く見るようになって思ったけど、
日本の(一部の都市圏の)空港が遠いんじゃなくて、日本の都市圏の面積がデカすぎるんだよ・・・><

スペインが「カツサンド・フィーバー」に沸く─コンビニ食から高級料理へ | クーリエ・ジャポン courrier.jp/news/archives/3944

ノルウェーの車両って書いてあるグレー塗装のカコイイStadler FLIRT、この子っぽい?><

Stadler delivers first Norwegian bi-mode Flirt - International Railway Journal railjournal.com/fleet/stadler-

スレッドを表示

欧州の新型車が集結「列車のテストコース」とは? 各国の鉄道技術支えるチェコの巨大な「周回線」 | 海外 | 東洋経済オンライン toyokeizai.net/articles/-/8663

コロラドのやつ(FGTのテストにも使ったやつ)は知ってたけど、こっちは知らなかった><;

SNSでバズってて即ポチしたんだけどスマホ用のプリンターがかなり便利「スクショやTODOリスト一瞬でコピーできる」「メモアプリじゃダメなの?」 - Togetter [トゥギャッター] togetter.com/li/2528447

「なんでプリントじゃなくコピー?」って人が複数いて、一周回ってハードコピーが死語になってから復活したみたいになってておもしろい><

一方で、逆に(?)LLMのおかげで、知識のような形をした膨大な情報って、かつて考えられていたよりはわりとコンパクトに折り畳めるって事はわかった気がする><
でも、よく使うかもしれない部分を計算機上において実用する程度には膨大な情報をコンパクトに扱えるようになったけど、『人間のわけわからんレベルに柔軟な情報処理』と同等な事をするのに必要な情報が、さらにどれだけデカいのかさっぱりわからない問題><

orange さんがブースト

「なんで人間はそんな低コストで超特大コンテキストウインドウの推論ができるんじゃい」ってのは、たぶん今の最前線の研究課題でしょうねえ…

なんで人間や生物は、とんでもなくとんでもなく膨大ではあるけどちゃんと有限な『普段は完全にどうでもいい無駄知識』を持っていて、ある瞬間にとっさに滅多に役立たない知識の中から必要なものを取り出せちゃうのかほんと不思議><
人間を使う方が手っ取り早くなる人間の『柔軟性』って、つまりそういうのかも><

orange さんがブースト

@orange_in_space それを実際に内部でやってるシステムを運用してるんですけど、入力トークンの制限とか、入力が長すぎて「注意力散漫」になったりとかで、まだ適切な内部状態の管理まではなかなか厳しいんです。

ただ、ちゃんと内部状態を持たせることで、エンタメ的に面白いことを言ってくれるようにはなったなぁ、というのが現状であります。

一回考えた事をキャッシュしておくことでフィードバックすることで、(主に人間と機械を比較した場合の人間の優位性という文脈の)『柔軟性』を持つ事ができるであろうけど、現在の計算機の仕組みでやると計算機資源が無限になってしまってある種のフレーム問題のようなものにぶちあたるの、
自働運転車(SDV)開発での、古典的な「なぜ人間のように運転できる機械が作れないのか?」って問題そのまんまかも><

プロンプトに追加する方式であれば、ChatGPTのメモ(?)みたいなのでもそれは達成できそうな><
問題は、そのやり方だとプロンプトが無限(比喩)に長くなるという・・・・><

orange さんがブースト

ただ「考える」って行為が何かを突き詰めると、単純にread-onlyな推論をしているだけで考えるというのは微妙に足りなくて、自己にちゃんとフィードバックをかけて、次に似たようなことを推論する時に結果が変わるような仕組みとセットで成立するんだろうなあ、とか考え始めると…

(メモはここで途切れている)

スレッドを表示
orange さんがブースト

単純な言葉の連環ではなくて、抽象レベルに降りて「考える」能力を持ちつつあるのではっていうプレプリントをいくつも見てしまって、誰か一人がテキトーに言ってるならUSO800かもしれんけど、さすがに複数の研究チームから出てくると、火のないところに煙は立たぬから何かあるんだろうなあと。

スレッドを表示
orange さんがブースト

ウチもつい最近までは超ゴージャスなマルコフ連鎖もどきって理解してたんだけど、それは前半の純粋な言葉の学習フェーズの段階であって、後半の「文章の続きを補うのではなく、問い合わせの答えを喋る」ようにするフェーズで、なんか予想を超えることが起きてるんじゃないかと雑に想像してる

orange さんがブースト

LLM 大規模言語処理の理屈はわかってる。基本は文字の意味ベクトルの統計的な連鎖的判定なんだけど、それがとんでもないくらいのデータ量でやったらなんかいいかんじになったやべぇってことなんだとおもう適当

2018年10月27日
これまでの「幸福」の研究は外向的な人に向けたもので内向的な人向けではない、内向的な人が幸せを得るには何が必要なのか? - GIGAZINE gigazine.net/news/20181027-int

古いものを表示
:realtek:

思考の /dev/null