新しいものを表示
orange さんがブースト

エーアイの文脈に限らないけど、メディアというものを何か勘違いしたのか、自身が価値を生まない情報仲介者みたいなのをやりたがる人がたまにいるっぽくて謎。そこにいられると邪魔なんですが……

orange さんがブースト

「エーアイはこう言ってるけど?」しか言わないエーアイ代理人、じゃあエーアイと私でお話するのであんたはお帰りくださいでおしまい

参考><

Jan 14, 2020
米ではドミノ・ピザが「クーポンが読み取れない」で敗訴。ウェブやアプリは障害者が利用しやすいか | Business Insider Japan businessinsider.jp/article/205

あと、日本のウェブサイトにはいつになったらアクセシビリティページがつくのか?><
(アメリカでは義務だし、無いと訴えられることもある><)

ファストフードチェーンのウェブサイトとか特に、アメリカのを見たあとに日本の同チェーンを比較で見ると「なにこれ・・・><」ってなる><
アメリカのウェブサイトは案内だけど、日本のファストフードチェーンのウェブサイトって広告じゃん?><
顧客が知ろうと思って探しに来た情報じゃなくまず企業側が顧客に見せつけたい情報があって、しかも顧客が知ろうとする行動を邪魔するデザインになってる><

orange さんがブースト

こう見ると日本はユーザー行動に多様性があると見ていいのかもなあ / 日本と海外の情報設計の違い|takumi note.com/takumi_uchu/n/n5972d4

アメリカ人の新教皇、アメリカのカトリックの政治的傾向に関する過去の調査データからすると、
アメリカ人から選出されたのにアメリカ人からの支持が低いって事になりかねないだろうし、特に民主党支持者層のカトリックと、あまり教会に行かない層(行くのが年数回程度の層)はほとんど支持しなさそう(当初はアメリカ人からの選出を喜ぶだろうけど、政治的姿勢のギャップが大きすぎて遠からず支持されなくなりそう)だし、下手するとアメリカのカトリックが急減する可能性まであるんでは?><

orange さんがブースト

あわせて読みたい><(?)

March 4, 2025
10 facts about U.S. Catholics | Pew Research Center
pewresearch.org/short-reads/20

orange さんがブースト

毎度お馴染みのPew Research><

Catholics | Religious Landscape Study | Pew Research Center
pewresearch.org/religious-land

成人の19%がCatholics><

Religious Landscape Study | Pew Research Center
pewresearch.org/religious-land

ローマ教皇にプレボスト枢機卿選出 アメリカ出身 レオ14世名乗る コンクラーベ | NHK | フランシスコ教皇 www3.nhk.or.jp/news/html/20250

少し前に家族の人と「アメリカ人でおもしろい候補が居るけど、でもアメリカ人は選ばれなそう><」って話をしたのでアメリカ人なのはびっくりしたけど、
オレンジが特におもしろい候補と思ってたのはjoseph william tobinであって、改革派のtobinが選ばれればアメリカ人からの選出でなおかつトランプに反旗なのでおもしろいと思ったんだけど、プレボスト氏は実質的に保守派だし、むしろトランプの靴をなめた選出って批判者(→><)にツッコまれる余地が出来る><

[B!] 鉄鋼クリフス、全米6カ所で高炉や工場休止 最終赤字拡大で - 日本経済新聞
b.hatena.ne.jp/entry/s/www.nik

(会員記事なので読めないけど、)USスチール買収問題であれだけ大口叩いててこれで、しかも英語の現地記事によると、ペンシルベニア州のオレンジが好きな地域の近くにある鉄道レール工場も操業停止にするらしくてむかつく><
gmk.center/en/news/cleveland-c

複数のLLMと議論してプロンプトを鍛えて(?)、GPTさんを一発で納得させる問いかけに改良した・・・と思って読み返したら、タイポがあってカコワルイ><;("そうする場いいのか"←><;)

🤖 「AIが自分でどうにか考えようとするとうまくいかないかもだけど、人間が失敗しまくってそれを歴史として残してくれてるから既知の脅威を避ける事ができるの」
だよね感><

現在のChatGPT程度でもデネットのフレーム問題の例題(1984)程度の低い複雑性であれば人間よりもうまくこなせちゃいそうなの、
なんでかというと、LLMの方が多くの事故事例を物量で知ってて、それをふまえて注意すべき点を列挙することが可能だからであって、
それって言い方を変えると、『愚者は経験に学び、賢者は歴史に学ぶ』(の原文の『私は最初から自分の失敗を避けるために、他人の経験から学ぶことを好む。』)をLLMがやってるとも言えるわけで、『己の経験のみでどうにかしようとする人間(愚者)』と比べたら賢者とは言えそう><

ただ、(自動車の運転はもっと複雑である(柔軟性がもっと必要)って部分を無視しても)結局、自動運転車も責任問題が克服できてないので、「事故った時に誰が牢屋に入ればいいのか?」という点が問題になるかも><

orange さんがブースト

なんかこれ自動運転車に人間が乗る理由みたいやな

お昼ごろの、デネットのフレーム問題に関する4oさんとの会話でも、デネットの例題程度の複雑さであれば、「もう人間が優れてるのって責任の部分だけじゃね?><;」ってなった><
chatgpt.com/share/681c917a-cdc

GPTさんは「AIは、『自分がどうしてそうしたのか』をうまく説明できない(噓の説明をする)所も違うよ!」って主張をしたけど、「それって脳科学の視点では結局人間も同じでは?><」って指摘したら「それはそう」ってなった><(?)

orange さんがブースト

土下座する専門性…

Dr.ワイリーに弟子入りしなきゃ…

orange さんがブースト

コードが間違っていた時に、土下座するのが自分になってしまう…

古いものを表示
:realtek:

思考の /dev/null