自分が知らない分野のプログラムはAIに書かせた方が速くて、よく知ってる分野のプログラムは自分で書いた方が速いのだろう。
あと目的が十分明確で、単にそれを達成したいだけならAIでよくて、達成手段に対する知識を得たいなら自分で書いた方がいいのだろう。
というか登大遊先生がバイブコーディングで示してたよね。
デバッグはもちろんExcel設計者やテスト作成者が書いたテスト仕様書Excelがあって、入力データと期待される出力とかが書いてあるので、入力内容・出力内容・DBレコードのSELECT結果とかをスクショしてExcelにペタペタして上流工程に返却。Excel指示書やテスト仕様書にミスがあると、その次の結合テストで問題が出るので、また修正して単体テストして・・・。
大量のIPアドレスに分散して、1IPアドレスあたりは数十秒の間隔をあけたアクセスにするので、IPアドレス単位の負荷制限も効かない。ほんとにどんだけ大量のサーバーを投入してるんだってぐらいに分散してクロールしてくる。
内容めちゃくちゃ良いし、こういう記事とても好き。
おもしろい。
robots.txtを無視するクローラーが増加中 AI学習を完全に拒否できない問題とは https://www.so-right.jp/ignoring-robots-txt/
ActivityPub対応ログ記録サービスを始めました。→https://notestock.osa-p.net/ ぶろるっく https://mastodon.blolook.osa-p.net/ フォローリンク http://followlink.osa-p.net/ X版ぶろるっく・ふぁぼるっくなどを作っていました。おすすめユーザーは分散SNSを始める上で、色々な方面への足がかりになりそうな方です。「Xからの転載にはURLをつけて欲しい会」会員。