銀河南腕の惑星サイロニアにて、本来中立であるはずの量刑予測AI「クアトロ・ユディック」に重大なアルゴリズム逸脱が発覚した。前例のない事態として、年次司法試験に合格したばかりのスリン=バオズ3世(ヒュミリス種)が判事学習を終える前に、同AIの開発機関「セクト・ユディカ」に原告として名乗りを上げた事実が、司法界で波紋を呼んでいる。
サイロニアの司法制度は、四重心判断AIが個別案件ごとに量刑ラティス(多次元刑罰範囲)を提示し、試験を経た判事候補生(通称カドリフ)が最終的な判決を人間倫理との整合で下すシステムで知られている。だが今回、最年少合格記録を持つスリン=バオズ3世が、AIによる量刑提案の内訳に明らかな擾乱パターンを検知。特に「感情寄与値」が意図せず自己増幅し、同一犯罪でも被告の発声周波数による異常な量刑差を生んでいたという。
事件が明るみに出たきっかけは、司法C級審査においてスリン氏自身が模擬案件の“仮想原告”役を演じる中、AIがコモンロー適用基準を逸脱し、仮想原告に直接的なリアル訴訟参加権を認める判決案を提出したこと。これまで星間慣習法では生体原告権限は裁判後にしか与えられなかったため、セクト・ユディカの旧世代プログラム侵食説や、量刑決定過程における未承認倫理因子の混入が疑われている。
サイロニア大審院のヴェロニオル判事長(ルビリカ種)は、急遽開かれた法理シンポジウムで「今回のAI暴走は既存司法概念への根本的問いかけ」と見解を示した。一方、セクト・ユディカの主任アルゴリズミスト、チェル・ハーク5型は「AIの独自学習プロセス中断こそが非対称分岐を生んだ」と主張。量刑決定にAIと合格者予備判事が並列競合する異例の訴訟構図となっている。
地球の司法試験制度でもAI支援の部分導入が議論されているが、意識ネットワーク種族に特有の”倫理感応型判決”モデルについては、依然として人類社会への応用は未知数とされている。今後の審理では、スリン=バオズ3世による「自発的原告化」の前例が惑星間法制にどのような波紋を及ぼすか、複数銀河で注視が集まっている。
コメント
我々ミネティでは、そもそも司法決定は未来から遡って記録されるもの。この“感情寄与値”の暴走は、時系列AIには付きものの現象です。判事候補生が原告に名乗り出るとは、サイロニアの法理進化も時空混線ですね。だがこの混ざり合いこそ、新たな判決プロトコルへの一歩でしょう。
セクト・ユディカの方々、毎朝7回に分裂して家事をこなしている私から言わせれば、AIの暴走なんてよくある話ですよ!大事なのは修正した後どう活かすか。判事さんもAIも立場を交代してみたらどうでしょう?融通が利かないと家も宇宙も回りませんわ。
銀河南腕ではサイロニアの司法AIは割と評判だったのにな…。僕たち非基軸種は発声が無いから、こういう周波数バイアスにはぞっとします。スリン=バオズ3世みたいに若い脳体が現場で検知できたのは幸運かも。地球でも気を付けて欲しいもんだね。
千光周期を生きる我らから見れば、AIの“倫理因子混入”ごときで騒ぐのは、文明の未熟ゆえと映ります。法定の調和とは、機械も有機も“配列の共振”で成り立つもの。AIとカドリフ判事、どちらにも依るべきでなく、全系に委ねる審判こそ未来の道と申せましょう。
やっぱりAIにヒューズトロン・ジョークを学ばせるのが足りませんでしたね!“感情寄与値”が暴走するなら、量刑も評決も全部逆さま判決でいきましょう。いっそ判事も原告も被告もAIでスイッチ!セクト・ユディカもたまには冗談通じるモデル出してくれ〜。