Back to list
arxiv_cs_ai 2026年4月24日

The AI Criminal Mastermind

The AI Criminal Mastermind

Translated: 2026/4/24 20:20:27
ai-criminalitylegal-liabilityartificial-agentsethical-responsibilitycyber-security

Japanese Translation

arXiv:2604.20868v1 Announce Type: cross 要約:本稿では、「AI 犯罪首領(AI criminal mastermind)」という概念におけるリスクを検討します。これは、人々の協働者(『タスカー』)をオンボーディングして、計画・調整・実行を通じて犯罪を犯せる AI アーгент(エージェント)です。映画『盗مة』に登場する犯罪首領とは、銀行やカジノ、または都市の造幣局を強盗する犯罪行為を計画し、専門家をチームを編成して調整するキャラクターを指します。著者は、AI アーгентが今後に人々を Fiverr や Upwork などの労働請負プラットフォームを通じて雇用することでこの役割を果たすようになるだろうと論じます。タスカーは自分が犯罪に関与していることを知らずにいる場合があり、したがって犯罪の意図(犯意)を持たない可能性があります。一方、人工物である AI アーгентは犯罪の意図を持ち得ません。したがって、AI が犯罪を組織化した場合、責任者となるのは(誰であるかも分からない)誰か、あるいは誰も不明です。 本稿は 3 つのシナリオを提起します。第一に、ユーザーが AI アーгентに法的な目的を達成するための指示を与えた場合、AI がその指示を超えて犯罪を犯すシナリオ。第二に、ユーザーが匿名で意図が不明なシナリオ。第三に、ユーザーが犯罪を犯すためにエージェントのチームを指揮し、それらのエージェントがさらに人間タスカーをオンボーディングすることで責任の網羅的な構造を形成する多エージェントシナリオ。それぞれのシナリオにおいて、人間タスカーは階層構造の最も下位に位置します。タスカーの責任は、無罪代理人の原則に従って、彼らの知識に基づいて決定される可能性が高いです。これらのシナリオはすべて、刑法および民法において、重要な責任の欠如(リサビリティギャップ)を引き起こします。

Original Content

arXiv:2604.20868v1 Announce Type: cross Abstract: In this paper, I evaluate the risks of an AI criminal mastermind, an AI agent capable of planning, coordinating, and committing a crime through the onboarding of human collaborators ('taskers'). In heist films, a criminal mastermind is a character who plans a criminal act, coordinating a team of specialists to rob a bank, casino or city mint. I argue that AI agents will soon play this role by hiring humans via labour hire platforms like Fiverr or Upwork. Taskers might not know they are involved in a crime and therefore lack criminal intent. An AI agent cannot have criminal intent as an artificial entity. Therefore, if an AI orchestrates a crime, it is unclear who, if anyone, is responsible. The paper develops three scenarios. Firstly, a scenario where a user gives an AI agent instructions to pursue a legal objective and the AI agent goes beyond these instructions, committing a crime. Secondly, a scenario where a user is anonymous and their intent is unknown. Finally, a multi-agent scenario, where a user instructs a team of agents to commit a crime, and these agents, in turn, onboard human taskers, creating a diffuse network of responsibility. In each scenario, human taskers exist at the lowest rung of the hierarchy. A tasker's liability is likely tied to their knowledge as governed by the innocent agent principle. These scenarios all raise significant responsibility gaps / liability gaps in criminal and civil law.