ある組織で何か不祥事があったとしても
それを決定した人間が辞任すれば
まあ世間は納得するだろう。
たとえ後任が双子の弟だったとしても。
しかしAIのバージョンアップでは
責任を取ったとはみなされない。
人間のように間違うが人間のように責任を取れない機械というのは
どうも使い道がずいぶん限られるように思う。
補足:
レビュワーが全責任を取る前提で
コードレビューするだけの仕事とか
僕はあんまりやりたくないね。
ある組織で何か不祥事があったとしても
それを決定した人間が辞任すれば
まあ世間は納得するだろう。
たとえ後任が双子の弟だったとしても。
しかしAIのバージョンアップでは
責任を取ったとはみなされない。
人間のように間違うが人間のように責任を取れない機械というのは
どうも使い道がずいぶん限られるように思う。
補足:
レビュワーが全責任を取る前提で
コードレビューするだけの仕事とか
僕はあんまりやりたくないね。