新しいものを表示
orange さんがブースト

毎度お馴染みのPew Research><

Catholics | Religious Landscape Study | Pew Research Center
pewresearch.org/religious-land

成人の19%がCatholics><

Religious Landscape Study | Pew Research Center
pewresearch.org/religious-land

ローマ教皇にプレボスト枢機卿選出 アメリカ出身 レオ14世名乗る コンクラーベ | NHK | フランシスコ教皇 www3.nhk.or.jp/news/html/20250

少し前に家族の人と「アメリカ人でおもしろい候補が居るけど、でもアメリカ人は選ばれなそう><」って話をしたのでアメリカ人なのはびっくりしたけど、
オレンジが特におもしろい候補と思ってたのはjoseph william tobinであって、改革派のtobinが選ばれればアメリカ人からの選出でなおかつトランプに反旗なのでおもしろいと思ったんだけど、プレボスト氏は実質的に保守派だし、むしろトランプの靴をなめた選出って批判者(→><)にツッコまれる余地が出来る><

[B!] 鉄鋼クリフス、全米6カ所で高炉や工場休止 最終赤字拡大で - 日本経済新聞
b.hatena.ne.jp/entry/s/www.nik

(会員記事なので読めないけど、)USスチール買収問題であれだけ大口叩いててこれで、しかも英語の現地記事によると、ペンシルベニア州のオレンジが好きな地域の近くにある鉄道レール工場も操業停止にするらしくてむかつく><
gmk.center/en/news/cleveland-c

複数のLLMと議論してプロンプトを鍛えて(?)、GPTさんを一発で納得させる問いかけに改良した・・・と思って読み返したら、タイポがあってカコワルイ><;("そうする場いいのか"←><;)

🤖 「AIが自分でどうにか考えようとするとうまくいかないかもだけど、人間が失敗しまくってそれを歴史として残してくれてるから既知の脅威を避ける事ができるの」
だよね感><

現在のChatGPT程度でもデネットのフレーム問題の例題(1984)程度の低い複雑性であれば人間よりもうまくこなせちゃいそうなの、
なんでかというと、LLMの方が多くの事故事例を物量で知ってて、それをふまえて注意すべき点を列挙することが可能だからであって、
それって言い方を変えると、『愚者は経験に学び、賢者は歴史に学ぶ』(の原文の『私は最初から自分の失敗を避けるために、他人の経験から学ぶことを好む。』)をLLMがやってるとも言えるわけで、『己の経験のみでどうにかしようとする人間(愚者)』と比べたら賢者とは言えそう><

ただ、(自動車の運転はもっと複雑である(柔軟性がもっと必要)って部分を無視しても)結局、自動運転車も責任問題が克服できてないので、「事故った時に誰が牢屋に入ればいいのか?」という点が問題になるかも><

orange さんがブースト

なんかこれ自動運転車に人間が乗る理由みたいやな

お昼ごろの、デネットのフレーム問題に関する4oさんとの会話でも、デネットの例題程度の複雑さであれば、「もう人間が優れてるのって責任の部分だけじゃね?><;」ってなった><
chatgpt.com/share/681c917a-cdc

GPTさんは「AIは、『自分がどうしてそうしたのか』をうまく説明できない(噓の説明をする)所も違うよ!」って主張をしたけど、「それって脳科学の視点では結局人間も同じでは?><」って指摘したら「それはそう」ってなった><(?)

orange さんがブースト

土下座する専門性…

Dr.ワイリーに弟子入りしなきゃ…

orange さんがブースト

コードが間違っていた時に、土下座するのが自分になってしまう…

完全にそれはそうだし、ChatGPTさんにプログラミング関連の質問をしてると、頼んでもないのに勝手にコードを書いちゃったりする><;(念入りに「自分で書く技術的チャレンジなんです><;」って言わなかった場合)

orange さんがブースト
orange さんがブースト

じゃあ依頼者がAIに言って仕様書だけじゃなくコードも生成してもらったほうが早くね?

仕様書も、AIさんと一緒に文書作る機能(ChatGPT Canvasとか)でAIさんが作ってくれそう><(?)

orange さんがブースト

逆に完全な仕様書がある場合はAIのほうが効率がいいのだろうか。

修正案件のときはどういう感じになるんだろう?

orange さんがブースト

それなりの規模のコードをAIに書かせようとすると、
1. プロンプトが長くなって「これ自分で書いた方がいいな」になる
2. 試行錯誤の回数が多くなって「これ自分で書いた方がいいな」になる
のいずれかになる気がしている

orange さんがブースト

良いコードを書ける人がAI使ってコーディングするとアウトプットが増えてもレビューのコストはそこまで比例しない[要出典]
逆に、あまりいい感じのコード書けない人がAI使ってコーディングすると、アウトプットに対してレビューのコストが増大する[要出典]

スレッドを表示
古いものを表示
:realtek:

思考の /dev/null