オマケというか、「他人が価値判断を行った結果が、その証拠や重み付けを含めて機械可読になってほしい」というお気持ち。
従来のレビューでは価値判断の最終結果しか見えないことがほとんどで、証拠や反論についてのメタデータでの紐付けがとにかく弱いので。
言ってしまえば、このレビューシステムがあってもなくても私の脳内で起きていることに違いはなくて、単にその脳内で発生した価値判断を web で再現したいだけなのよな。
人間が先でシステムはその模倣。
そのオマケとして、近隣クラスタでユーザが増えることで判断に使える材料が増えるというメリットはあるんだけど
私が第一に欲しいのは「私が人の話を信用するメカニズムの機械化」であって、信用の伝播とかはそのための道具にすぎない。
このシステムはグローバルな信用や他者のためのスコア算出を目的としていない。
もちろん明示されてもそういうのをうまく扱えない人々がいることは承知しているんだけど、そういう人々自体について「私が私のために」ゼロや負に近い信用度を設定できればいいというお気持ちもある。
誰を、何を信用するかユーザが完全に制御できるのなら、信用できない人をスコア計算から排除して信用すると決めた人を半ば身内扱いするようなある意味「性善説的な」機構も十分に有意義だろうしそこまで脆弱にはならないはず
あと Web of Trust を挙げたのも、「人間が人間を信用している事実についての信用」と「人間による投稿についての信用」も別種だしモデル化段階で区別される必要があるなぁみたいな気持ちで書いていた
https://mstdn.nere9.help/@orange_in_space/105377035129958505
https://mstdn.nere9.help/@orange_in_space/105377040321947364
むしろそういう「局所的なクラスタでの信仰」みたいなのを再現したい、定量化したいという気持ちがあって、同時にそれが (現実に広く見られる) 誤りを無視した高評価に繋がる懸念も理解はしている。
<https://mastodon.cardina1.red/@lo48576/105376610784961448> で「投稿への信用」と「投稿した人への信用」を別で挙げているのはそういうところのお気持ちの反映で、「人間への信用はデフォでその人によるレビューへ引き継がれるところがあるが、必ずしも全てのレビューでそういうわけではない (信用している情報源の部分的な否定や補足はありうる)」というところも、ちゃんとモデル化して明示されればユーザも2種類の信用の差異を認知できるようになるのではないかなと。
専門家云々><(長文)
昨日なんかの話題(なんだっけ?><;)の時についでに書こうか迷って長文になりそうだったから書かなかったんだけど、
オレンジってわりと「オレンジだけが言ってるんじゃなくこの専門家も言ってるんだぞ!?><」ってする事多いので「専門家の意見をまるごと鵜呑みにしてると思われてるかも?><」って思ってるんだけど、ジョークで「この人が言ってるからきっと正しい!><;」はやるけど(カトラーとか)、基本的には「この人が言ってるし!><」って人の意見とぶつかる部分が多々ある事多いし、デザインの話で毎回引っぱってくるノーマンの話もここがおかしい!><# ってぶち切れる感じの敵対する部分があったりする><(そもそも「敵!><」って感じで本を読んだ><)
たとえば私が信用していない人々が「動的型付けは神!」などと言っていても、それは私にはどうでもいいというか、逆に「信用していない人々が称賛しているものは、やっぱり信用できない」というマイナス評価に繋がるわけです。
それよりも、「この人の思想や感性は私と近いな」という人が「この静的型付き言語いいぞ」と言っている情報を重く受け止めたいじゃないですか。
https://mastodon.cardina1.red/@lo48576/105376610784961448
"...「信用できる人が信用している人はちょっと信用してよさそう」..."
の"ちょっと"がちょっとである事が味噌って事かも?><
https://mstdn.nere9.help/@orange_in_space/105376981504011133
だからこそ「自分が信用するとマークした人間や評価を信用し、その他大勢のどうでもいい人間の評価が反映されない」というシステムが輝くと思うわけです
https://mathtod.online/@cmplstofB/105376617880658546
https://mathtod.online/@cmplstofB/105376629561809902
主観的で、乗り換え可能で、商業的な押し付けが入らないことがオタク的には価値かな