新しいものを表示

「タスクバーが下にあると縦の長さが!」って人的には、タスクバーを自動で隠す設定じゃダメなの?><(オレンジはXPの頃?に自動で隠す設定を使ってた記憶ある><)

[B! Windows] サポート終了後もWindows 10を使い続ける方法と、その注意点
b.hatena.ne.jp/entry/s/www.itm

Windows 11のUXが大不評なのわからなくもないけど、Windows 10と比べたら、タスクバーの位置を変えられない(オレンジは変えないけど)以外の面では、10と酷さレベルはあんまり変わらなくね?><
Vista/7の方がよかった(よかったというかUXデザインの教科書の再現みたいだった><)というならわかるけど><

おもしろい><

戒厳令騒動後の韓国・国会議事堂前でアイドルマスターの「しゅがは」こと佐藤心の旗が颯爽となびく→イカれたオタクの悪ふざけではなく歴史的な理由がある - Togetter [トゥギャッター]
togetter.com/li/2475119

chatgpt.com/share/6750046a-821

さらに元ネタが『大湫』という地名での実例である事を教えたうえでどう思うか聞いてみたら、直球正論パンチしてておもしろい><;

元々の疑問はこれで、
mstdn.nere9.help/@orange_in_sp
ここからふと「ChatGPTに土木工事地域の地名の情報を与えたらリスクを推測できるのだろうか?><」って思い至った><
GPTですら予想出来るのなら(出来た><)、やはりリニア日吉トンネル問題も、事前に「ここやばいんじゃね? 水抜けるんじゃね?」って地名から推測した人が居た可能性が高いと言えるんではないかと><

orange さんがブースト

リニアの日吉トンネルの出水問題、中京地区の鉄オタとか土木オタクとか地理系オタクとかであらかじめあの場所はヤバイって予想してた人が居なかったのか謎><
ルートを知ってて、「湫」地名である事とどんな土地かを知ってて、過去の異常出水事例(例えば中山トンネルとか)を知ってたら、むしろ予想して当たり前だと思うし、言い当てた人が居そうだけど・・・><

JR東海とは違って、GPT-4oさんは地名からリスクを推測してこういう提案をできる><;

追試しやすいようにminiで試したけど、miniじゃない4oでやったらどうなるんだろ?><

それに対して、GPT-4o miniさんはオレンジが想定した通りのほぼ完璧な返答をしてきた><(完璧すぎてマジでびっくりした><;)
注目点を教えるヒントを出した上でではあったし、深さまでは理解できてないけど、ちゃんと湫地名のリスクを発見(?)できてた><

スレッドを表示

で、さらなる質問でオレンジが想定していた部分を聞いてみた><

『ほぼ完璧なすばらしい回答だと思います!>< さらに「湫ヶ谷」という地名から、特に使われている漢字から推測できる事はありませんか?><』

スレッドを表示

最初の回答の抜粋はこんな感じ>< 

『1. 地盤の不均一性や断層の存在』←山の名前を考慮してくれたのかしてないのか微妙><
『2. 水分の影響(地下水)』←盆地だからって理由
『3. M字型の経路の地形的な挑戦』←オレンジの説明が悪かったせいか誤解されてここだけ頓珍漢な回答><;
『4. 振動や地震のリスク』
『6. 環境への配慮』

スレッドを表示

最初の質問文はこんなの>< 

土木分野で、人間が気づけなかったリスクをChatGPTが認識して人間の土木技術者の補佐として活用できるのでは? というアイディアに基づいて、架空の事例でのアドバイスをしていただきたいです><
「『赤石山』と『青石山』に挟まれた盆地である『湫ヶ谷』という集落の直下100mを通る地形の縦断面がM字型の経路を通る全長16000mのトンネル計画」
この文章に現れる地名から、どんなリスクが推測できますか?><

スレッドを表示

昨日ふと思いついていま試してみたんだけど、
「ChatGPTは、土木に関する人間が気づけなかったリスクを地名から推測できるんだろうか?><」って思って聞いてみたんだけど、この地名から推測できるリスクはありませんかって聞いて助け舟を出せば、ちゃんとリスクを見つけてくれるっぽい><

最近体調ずっと悪いので試しにひさしぶりにモンエナ飲んでるけどおいしい><

「料理の知識が全く無くてもChatGPTに聞けば作れちゃう!」とか言っても、たとえばChatGPTが食中毒を引き起こすような調理方法を指示しても、料理の知識が無ければそのおかしな指示に気づけないわけで、結局基礎的な調理に関する知識が無ければChatGPTを活用できない><
ChatGPTに関する知識だけ持っても、活用分野の知識が別に必要だし、お料理程度であれば結構な比率の人が知識を持ってるであろうけど、最近の世界中の選挙の混乱等によっても表面化してるけど、世の中のわりと多くの人がわりとお馬鹿タレントレベルの知識しか持ち合わせて無いっぽい><

航空に関する報道等の内容、あるいはそれ以外の分野に関する報道等の内容に関して、結局専門家に近い知識(あるいはそれよりディープなマニア知識><;)が無ければ見抜けないのと同様に、
ChatGPT等の活用でも、検品の為に結局専門家に近い知識が必要なのであれば、活用したい分野に関する専門家がアシスタント的に使う(プログラマがプログラミングの時短に使うとか)か、そうでなければ、あらゆる分野の専門的知識をつける事を躊躇しない変人(→><;)みたいな、限られた状況や人じゃなければ結局使い物にならないんでは?><

スレッドを表示

報道とSNSのインフルエンサーの報道モドキ問題も、トートロジーだけど、結局その報道等の内容を精査できる知識が無ければ精査できないわけで、
たとえば重大な誤りが含まれる航空に関するおかしな報道やおかしなインフルエンサーの主張(や、時には公的機関の決定等)を見かけても、航空の知識が見抜けない><
今年1月の羽田のJALと海保機の事故でも「ナンバーワン」の語の扱いに関する見解の報道や国交省の当時の見解について、オレンジは航空管制のごく基本的な知識はあったので誤りを指摘出来たけど、世の中の大半の人は航空管制の知識なんて持ってない><

ChatGPTが登場して2年以上経ったのに「生成AIの活用の仕方がわからない」って人が大多数。 - Togetter [トゥギャッター] togetter.com/li/2475106

これ結局、報道等関連(あるいはアンチ報道関連)のリテラシーが、みんなが思ってたよりみんなに無かった結果あちこちの選挙大変になってる問題全く同じで、LLMを使う時にもテクノロジー知識だけでは無く活用する分野のリテラシースキルがかなり必要と言う問題から、結局必然的に、使える人ってかなり限定されるんでは?><

たとえばLLMにアプリ書いて貰える人ってプログラミング出来る必要がある(じゃないと検品出来ない)けど、プログラミング出来る人(検品出来る人)はとても限られる><

古いものを表示
:realtek:

思考の /dev/null