AIが出力する文章で名誉毀損は成立するか?弁護士が法的論点を検討してみる

目次

【この記事の結論・要約】

  1. AIが出力した文章であっても、名誉毀損の成立要件を満たす場合には法的責任が問われる可能性があります。ただし、公然性や責任主体の認定など、現行法では明確な結論が出ていないハードルが複数存在します。
  2. 特に、インターネット上の誹謗中傷をAIが学習し、誰が質問しても同じ名誉毀損的回答が生成される構造は、従来の名誉毀損法理では想定されていなかった新たな被害類型であり、今後の議論が求められます。
  3. 米国Walters v. OpenAI事件は2025年5月にOpenAI勝訴の略式判決が下されており、AI開発者の責任を直接問うハードルは諸外国でも高い状況です。本記事は、日本法において正面からの判例がないこの問題について、現行法の枠組みに基づいた法的検討を試みるものです。

本記事の情報は一般的な法律知識の解説であり、個別事案の判断は事実関係により大きく左右されます。具体的な対応については弁護士にご相談ください。

はじめに

「ChatGPTに自分の名前を入力したら、身に覚えのない犯罪歴が表示された」

このような相談は、まだ一般的ではありません。
しかし、生成AIの普及に伴い、今後確実に増加すると考えられる問題です。

生成AI(ChatGPT、Gemini、Claude等)は、インターネット上の膨大なデータを学習し、ユーザーの質問に対して文章を生成します。
その過程で、AIが事実に基づかない情報をもっともらしく出力する現象、いわゆる「ハルシネーション(幻覚)」が発生することがあります。

このハルシネーションが特定の個人についての虚偽の事実(犯罪歴、不祥事、不正行為等)を含む場合、それは名誉毀損に該当するのでしょうか。
該当するとして、誰が法的責任を負うのでしょうか。

この問題については、日本法において正面から判断した裁判例はまだ存在しません。
本記事は、現行法の枠組みに照らして、AIによるテキスト出力が名誉毀損に該当しうるかを検討するものです。

なお、本記事で検討するのは「AIが文章を出力する行為」に限定し、AIが生成する画像・動画(ディープフェイク等)や、AIの出力をSNS等にアップロードする行為については対象外とします。

AIのハルシネーションと名誉毀損リスク

ハルシネーションとは何か

ハルシネーション(幻覚)とは、生成AIが事実に基づかない情報を、あたかも事実であるかのようにもっともらしく出力する現象です。

例えば、「Aさんについて教えてください」と質問すると、AIが「Aさんは2020年に横領事件で逮捕されました」のような、全く事実に基づかない情報を断定的に出力することがあります。
AIは「嘘をつこう」と意図しているわけではなく、学習データに含まれる情報パターンから統計的にもっともらしい文章を生成した結果、虚偽の内容が出力されるのです。

このような出力が特定の実在する個人の社会的評価を低下させる内容である場合、名誉毀損の問題が生じます。

海外の動向——AIの誤出力をめぐる訴訟

Brian Hood事件(オーストラリア、2023年)

2023年4月、オーストラリアのHepburn Shire市長Brian Hood氏が、ChatGPTが自身について「贈賄事件で服役した」という虚偽の出力をしたとして、OpenAIへの提訴を予告しました。
Hood氏は実際には贈賄事件の内部告発者であり、不正を暴いた側の人物でしたが、ChatGPTは断片的な情報を誤って結合し、Hood氏を加害者として位置づける出力をしていました。

「ChatGPTに対する世界初の名誉毀損訴訟」として大きな注目を集めましたが、最終的には正式な提訴には至らなかったと報じられています。

Walters v. OpenAI事件(米国、2023年〜2025年)

米国のラジオ番組司会者マーク・ウォルターズ氏が、ChatGPTが自身について「横領で逮捕された」という全くの虚偽の事実を出力したとして、OpenAIを名誉毀損で提訴した事案です(Walters v. OpenAI、ジョージア州)。

この事件は、2025年5月19日、ジョージア州ギネット郡上位裁判所がOpenAI勝訴の略式判決(summary judgment)を出して結審しました。裁判所が原告の主張を退けた主な理由は3点あります。

第1に、ChatGPTの出力は「事実を摘示するものとして合理的に理解できない」とされた点です。OpenAIが免責表示で「ChatGPTは時に不正確な情報を出力する」と利用者に周知しており、本件で出力に接した記者自身も虚偽と認識していたことが重視されました。

第2に、OpenAIに過失は認められないとされた点です。原告は「ハルシネーションが発生しうるAIを提供することそれ自体が過失だ」と主張しましたが、裁判所は「これを認めれば、誤りの可能性のある全サービスの市場投入が事実上禁止されることになる」として退けました。

第3に、原告は実際の損害立証も訂正請求もしておらず、損害賠償の前提を欠くとされた点です。

これらの事案は米国法・豪国法に基づくものであり、日本法にそのまま適用できるものではありませんが、AIの出力による名誉毀損が現実の法的紛争として顕在化しつつあること、そしてAI開発者の責任を直接問うハードルが諸外国でも高い状況であることを示しています。

名誉毀損の成立要件とAI出力の関係

ここからは、日本法における名誉毀損の成立要件に照らして、AIの出力が各要件を満たしうるかを検討します。

名誉毀損罪(刑法230条1項)は、「公然と事実を摘示し、人の名誉を毀損した」場合に成立します。
民事上の名誉毀損(不法行為、民法709条)も基本的に同様の構造です。

以下、公然性、事実の摘示、同定可能性の各要件について順に検討します。

公然性——AIとの1対1のチャットに「公然性」はあるか

名誉毀損における「公然と」とは、不特定又は多数人が認識しうる状態をいいます。

AIとの対話は、通常、ユーザーとAIの1対1の閉じた空間で行われます。
この点をどう評価するかは、AIの利用形態によって異なると考えられます。
以下、3つの類型に分けて検討します。

第1類型:1対1のチャット

ユーザーがChatGPT等に質問し、AIが回答する場面です。
この場合、回答を閲覧するのは質問したユーザー1人であるため、「不特定又は多数人が認識しうる状態」に該当せず、公然性は原則として否定されると考えられます。

第2類型:AI検索エンジン・AI Overviews・自動生成記事

AIが生成した要約や回答が、検索結果のスニペットとしてウェブ上に表示される場合や、AIが自動生成した記事がウェブサイト上に公開される場合です。
GoogleのAI Overviews(検索結果におけるAIによる要約回答)が代表例として挙げられます。

この類型では、不特定多数のユーザーがその情報にアクセスできる状態にあるため、公然性が認められる可能性があります

第3類型:不特定多数のユーザーが同一の名誉毀損的回答にアクセスできる構造

この類型は、従来の名誉毀損法理では想定されていなかった問題であり、やや詳しく検討する必要があります。

例えば、インターネット上で特定個人に対する虚偽の犯罪歴等が繰り返し書き込まれ、AIがこれらの情報を学習した結果、「Aさんについて教えてください」と入力すると「Aさんは犯罪者です」と回答するようになった場合を考えます。

形式的には、各ユーザーとAIの1対1のチャットであり、第1類型(公然性なし)に該当するようにも見えます。
しかし、ChatGPTやGeminiのような大規模AIサービスは数億人規模のユーザーが利用しており、誰が同じ質問をしても同趣旨の回答が返ってくる状態にあります。

この状態は、名誉毀損的な書き込みがインターネット掲示板に掲載されているものの「まだ誰も閲覧していない」場合と構造的に類似しているともいえます。
掲示板の場合、閲覧者がいなくても「不特定多数が認識しうる状態」にあるとして公然性が認められます。
同様に、AIにおいても「質問すれば誰でもその情報にアクセスできる状態」であるとして、実質的に公然性を肯定するという解釈は可能であると考えられます

また、伝播性の理論(特定少数の者に対する発言であっても、そこから不特定多数の者に伝播する可能性がある場合には公然性が認められるとする理論。最判昭和34年5月7日刑集13巻5号641頁等)の拡張適用を検討する余地もあります。
AIの場合は、同じ質問をする不特定多数のユーザーそれぞれに同一内容が直接伝達されるという点で、伝播の蓋然性が極めて高いといえます。

もっとも、これらはあくまで解釈論上の可能性であり、裁判所がこのような解釈を採用するかは現時点では不明です。
今後の判例の蓄積が待たれるところです。

AIによる名誉毀損情報の固定化・再生産

前述の第3類型に関連して、AIが名誉毀損的な情報を固定化し再生産するという構造的な問題を指摘しておきます。
その構造は次のとおりです。

第1に、インターネット上で特定個人に対する虚偽の犯罪歴等が繰り返し書き込まれます。
第2に、AIがこれらの情報を学習します。
第3に、AIが学習結果に基づき、あたかも客観的事実であるかのように名誉毀損的な回答を出力します。
第4に、仮に元の掲示板の書き込みを削除請求によって消したとしても、AIの学習データに残り続ける限り、名誉毀損的な出力が再生産され続けます。

この問題の深刻さは、被害の持続性と不可逆性にあります。

従来のインターネット上の名誉毀損であれば、掲示板やSNSの管理者に対する削除請求等により、名誉毀損的な投稿を個別に消していくことが可能でした。
しかし、AIが学習済みの情報に基づいて回答を生成する場合、ソースとなるウェブ上の投稿を削除しても、AIの内部に「Aさんは犯罪者である」という情報パターンが残り続け、名誉毀損的な出力が半永久的に再生産される可能性があります。

さらに、元の誹謗中傷は匿名掲示板の書き込みにすぎなかったものが、AIを通じてあたかも客観的な「情報」として出力されることで、受け手の信頼度が格段に高まるという問題もあります。

被害者救済の観点からは、このような構造的被害を認定し、AI開発者に対して学習データからの該当情報の除去や、特定の出力に対するフィルタリングを求めうるかが、今後の重要な論点になると考えられます。

事実の摘示——AIの出力は「事実の摘示」に該当するか

名誉毀損は「事実を摘示」することを要件とします
ここでいう「事実」とは、証拠等によってその存否を確認できる具体的な事柄を意味し、「意見・論評」と区別されます。

AIのハルシネーションにより「Aさんは2020年に横領で逮捕された」のような断定的な虚偽の事実が出力された場合、これは「事実の摘示」に該当すると考えてよいでしょう
出力の内容が具体的な事柄(犯罪歴、不祥事、経歴詐称等)であり、証拠によってその存否を確認できる性質のものであれば、「事実の摘示」の要件を満たすと解されます。

一方、「Aさんは信用できない人物です」のような評価的な記述にとどまる場合は、「意見・論評」として事実の摘示には該当しない可能性があります
ただし、意見・論評の前提として具体的な事実が示されている場合には、その前提事実について名誉毀損が成立する余地があります

なお、米国Walters v. OpenAI事件では、ChatGPTの免責表示が広く認識されていることを理由に「出力は事実の摘示として理解されない」という判断がなされました。
この論理が日本法に直ちに通用するとは限りませんが、AIの出力に関する社会的認識(「AIは時に誤った情報を出力する」という常識)が定着すれば、日本でも具体的な事実摘示性の判断に影響を及ぼしうる論点であり、今後の議論の対象となると考えられます

同定可能性——AIは「誰の」名誉を毀損したのか

名誉毀損が成立するためには、表現の対象者が「誰であるか」を特定できること(同定可能性)が必要です

AIが実在の個人名を出力し、その人物について虚偽の事実を述べた場合、同定可能性は容易に認められるでしょう。
ハルシネーションの特徴として、実在する人名と虚偽の事実を組み合わせて出力することがあり、この場合は同定可能性の問題は比較的生じにくいと考えられます。

同定可能性の判断基準の詳細については、以下の関連記事で解説しています。

あわせて読みたい
同定可能性とは|名誉毀損・侮辱罪が匿名投稿でも成立する理由を弁護士が解説 【この記事の結論・要約】 実名が書かれていなくても、イニシャル・伏せ字・属性情報の組み合わせから「あの人のことだ」と読み取れるのであれば、同定可能性が認められ...

誰が責任を負うのか——AI開発者・利用企業の法的責任

仮にAIの出力が名誉毀損の要件を満たすとして、誰が法的責任を負うのかという問題は、現行法上最も難しい論点です。

AI開発者・提供者の責任

AI開発者(OpenAI、Google等)に対して不法行為責任(民法709条)を追及できるかを検討します。

不法行為が成立するためには、①故意又は過失、②権利侵害(違法性)、③損害の発生、④加害行為と損害との間の因果関係が必要です。このうち特に問題になるのは、①の故意・過失と④の因果関係です。

故意について検討すると、AI開発者が特定の個人の名誉を毀損する意図でAIを開発・提供しているわけではないため、故意は通常認められないと考えられます。

過失について検討すると、ハルシネーションの発生を完全に防止することは現在の技術水準では困難とされています。
ただし、近時、AI開発者は自社モデルのハルシネーション率を公表し、出力品質を継続的に改善する取り組みを進めています。
特定の個人について繰り返し名誉毀損的な出力が発生していることを把握できる仕組みを設けていなかった場合、または把握できたにもかかわらず適切なフィルタリングや訂正を怠った場合には、過失が認められる余地があります。

なお、米国Walters v. OpenAI事件では、原告が「ハルシネーションが発生しうるAIを提供することそれ自体が過失だ」と主張したのに対し、裁判所は、ChatGPTの設計において、OpenAIは不正確な出力、いわゆる「幻覚」を減らすためにChatGPTのトレーニングと改良に多大な努力を払ってきたと認定しました。
日本法における過失判断でも、同様の利益衡量が問題となると考えられ、AI開発者に対して結果責任に近い責任を課すことは慎重に検討されるべきでしょう。

因果関係については、AIの出力と損害との間に条件関係(あれなければこれなし)があるとしても、相当因果関係が認められるかは、AIの利用者が出力内容をそのまま信じるか、他の情報と照合するか等の事情によって異なり、一概にはいえません。

なお、製造物責任法の適用も問題になりますが、同法の「製造物」は「動産」に限定されており(製造物責任法2条1項)、AIの出力(無体物)には直接適用できないと考えられます。

AIを業務に組み込んだ企業の責任

自社のウェブサイトにAIチャットボットを設置し、そのチャットボットが顧客や第三者について名誉毀損的な出力をした場合、企業は法的責任を負うでしょうか。

この場合、まず検討されるのは、企業自身の不法行為責任(民法709条)です。
企業がAIチャットボットの導入にあたって、出力内容の監視体制やフィルタリングの設定を怠っていた場合には、過失が認められる可能性があります。

使用者責任(民法715条)の適用については議論の余地があります。
使用者責任は「被用者」の不法行為について使用者が責任を負う制度ですが、AIは「被用者」には該当しません。
もっとも、AIを道具として利用している以上、AIの出力について企業が責任を負うという結論自体は、民法709条(企業自身の過失)によっても導きうるところです。

企業としては、AIチャットボットを導入する際に、出力内容の監視体制の構築、不適切な出力を防止するフィルタリングの設定、「AIの回答は正確性を保証するものではありません」等の免責条項の表示、といった対策を講じることがリスク軽減につながると考えられます。

刑事責任の成否

名誉毀損罪(刑法230条1項)や侮辱罪(刑法231条)の主体は「人」であるため、AI自体が犯罪の主体になることはありません。

AI開発者や利用者に刑事責任が問われるとすれば、AIの出力について故意(名誉毀損の認識・認容)が認められる場合ですが、ハルシネーションは意図せず発生するものであるため、通常は故意を認定することが困難と考えられます。

AIを利用して意図的に特定個人の名誉を毀損するコンテンツを生成した場合(例えば、AIに対して「Aさんが犯罪者であるという文章を書いて」と指示した場合)には、AIの利用者に名誉毀損罪が成立しうると考えられますが、これはAI固有の問題というよりも、道具としてAIを利用した名誉毀損であり、従来の法理で対応可能です。

AI名誉毀損の被害を受けた場合の対応

現行法上の整理には不明確な点が多いとはいえ、AIの出力によって名誉を毀損された場合に何もできないわけではありません。以下の対応が考えられます。

証拠の保全

まず、AIが名誉毀損的な出力をした事実を証拠として保全します。

具体的には、スクリーンショットの撮影(日時が分かる形で、質問内容と回答内容の全体を記録)、複数回にわたる質問による再現性の記録(同じ質問を異なるタイミングで入力し、同趣旨の回答が繰り返し出力されることを記録)、可能であれば出力ログの保存が重要です。

特に、AIによる名誉毀損情報の再生産という被害を立証するためには、同じ質問に対して同じ名誉毀損的回答が繰り返し生成されることを示す再現性の記録が不可欠です。

AI開発者への削除・訂正要請

AI開発者に対して、名誉毀損的な出力の訂正やフィルタリングの設定、学習データからの該当情報の除去を要請することが考えられます。

OpenAI(ChatGPT)やGoogle(Gemini)等の主要なAI開発者は、出力に関するフィードバックの受付窓口やコンテンツポリシーを設けています。
まずはこれらの窓口を通じて対応を求めることになります。

元のインターネット上の誹謗中傷の削除請求

AIが名誉毀損的な出力を生成する原因が、インターネット上の誹謗中傷にある場合、根本的な対策はソースとなるウェブ上の投稿の削除です。

掲示板やSNSの管理者に対する削除請求、発信者情報開示請求によって、ソースとなる誹謗中傷を除去することが、AIの再学習を通じて名誉毀損的な出力を減少させる最も効果的な方法です。

情報流通プラットフォーム対処法(旧プロバイダ責任制限法。2025年4月1日施行)により、大規模特定電気通信役務提供者(大規模プラットフォーム事業者)には、削除基準の策定・公表義務(同法26条)や被侵害者からの申出に対する調査義務(同法23条)が課されており、被害者救済の枠組みは従来よりも強化されています。

X(旧Twitter)等のSNS上の誹謗中傷の削除請求の手順については、関連記事で詳しく解説しています。

あわせて読みたい
X(旧Twitter)の誹謗中傷を削除・投稿者特定する方法を弁護士が解説 【この記事の結論】 X(旧Twitter)で誹謗中傷の被害を受けた場合、以下の対処法があります。 証拠保全を最優先で行う——投稿のスクリーンショット・URL・アカウント情報...

民事上の損害賠償請求

AI開発者またはAIを業務に利用した企業に対して、民法709条に基づく損害賠償請求を行うことも理論上は可能です。
ただし、前述のとおり、故意・過失や因果関係の立証には困難が伴うことが予想されます

今後の展望——法制度はAI時代に追いつけるか

海外の動向

EU AI規制法(AI Act)は、2024年5月に成立、同年8月1日に発効し、2025年2月から段階的に適用が開始されています。
2026年8月2日には、一部の高リスクAIに係る規律を除き、本格適用が開始される予定です。
同法はAIシステムをリスクレベルに応じて分類し、高リスクのAIシステムに対して透明性の確保やリスク管理を義務づけています。
名誉毀損に直接対応する規定ではありませんが、AIの出力に対する開発者の責任を法的に整理する方向性を示すものとして注目されます。

日本の動向

日本では、AI関連の法制度が急速に整備されつつあります。

第1に、2025年6月4日に「人工知能関連技術の研究開発及び活用の推進に関する法律」(令和7年法律第53号、通称AI法)が公布され、同年9月1日に全面施行されました。同法は基本法的な性格を持ち、内閣に人工知能戦略本部を設置するとともに、政府が人工知能基本計画を策定することなどを定めています。
EUのAI規制法のような直接的な規制(罰則等)を伴うものではありませんが、AI関連政策の枠組みを示す立法として位置づけられます。

第2に、2025年12月23日には「人工知能基本計画」が閣議決定されました。
同計画では、AIの技術的リスクとして「誤判断、ハルシネーション等、不適切な情報の出力」が、社会的リスクとして「偽・誤情報の拡散」が明示的に挙げられており、本記事のテーマと直接対応する政府の認識が示されています。

第3に、経済産業省と総務省が公表する「AI事業者ガイドライン」は、2026年3月31日に第1.2版が公表されています。
同ガイドラインは法的拘束力のあるものではありませんが、AIの開発・提供・利用に際してのリスク管理や安全性の確保について指針を示しており、AI開発者の注意義務の内容を考える際の一つの参考になります。

名誉毀損に関しては、AIの出力に対する責任の所在を明確にする立法が今後検討される可能性があります。
特に、インターネット上の誹謗中傷がAIに学習されて再生産され続けるような構造的被害に対しては、現行法の解釈論だけでは十分な被害者救済が困難であり、AI開発者に対する学習データの管理義務や出力のフィルタリング義務を法的に明確化する必要性が議論されることになるでしょう。

FAQ

ChatGPTが自分について嘘を出力しました。名誉毀損で訴えることはできますか?

理論上は不法行為(民法709条)に基づく損害賠償請求が考えられますが、現時点では日本法上の判例がなく、公然性の要件を満たすか、AI開発者の過失が認められるか等の点で不明確な部分が多いのが現状です。

なお、米国Walters v. OpenAI事件では、2025年5月にOpenAI勝訴の略式判決が下されており、AI開発者に対する直接の損害賠償請求のハードルは諸外国でも高い状況です。

まずは証拠を保全し、AI開発者への訂正要請を行ったうえで、弁護士に相談することをおすすめします。

ネット上の誹謗中傷をAIが学習し、自分について聞かれると必ず「犯罪者だ」と回答するようになりました。どうすればいいですか?

根本的な対策は、AIが学習したソースとなるインターネット上の誹謗中傷を削除することです。

掲示板やSNSの管理者に対する削除請求、発信者情報開示請求を通じて元の投稿を除去すれば、AIの再学習を通じて出力が改善される可能性があります。
並行して、AI開発者に対して出力の訂正やフィルタリングの設定を要請することも有効です。

証拠として、複数回の質問による再現性の記録を取っておいてください。

AIの出力を信じた人がSNSに投稿した場合、誰が責任を負いますか?

AIの出力をそのままSNSに投稿した場合、投稿者自身が名誉毀損の主体として責任を負いうると考えられます。「AIが言っていたから」という弁解は、名誉毀損の故意・過失を否定する理由にはなりにくいでしょう。AIの出力を信じた人が公開した場合の責任は、従来の名誉毀損法理がそのまま適用される場面であり、AI固有の問題ではありません。

企業のAIチャットボットが顧客について誹謗中傷した場合、企業に責任はありますか?

企業がAIチャットボットの導入にあたって出力内容の監視やフィルタリングを怠っていた場合、企業自身の不法行為(民法709条)として責任を負う可能性があります。
AIチャットボットを設置する企業は、不適切な出力を防止するための技術的措置を講じるとともに、出力の正確性を保証しない旨の免責条項を明示することが望ましいでしょう。

GoogleのAI Overviewsや生成AI検索エンジンの要約に虚偽の情報が表示された場合、名誉毀損になりますか?

GoogleのAI Overviewsや生成AI検索エンジンの要約は、不特定多数のユーザーがアクセスできるウェブ上に表示されるため、名誉毀損の要件のうち「公然性」は満たされる可能性が高いと考えられます。
事実の摘示や同定可能性の要件を満たす場合には、名誉毀損が成立しうる場面です。

ただし、責任主体の認定(検索エンジン運営者の過失の有無等)については議論の余地があります。
検索エンジン運営者は従来「単なる集約者」と位置づけられてきましたが、AIによる要約は集約を超えて編集的要素を含むため、従来の法理がそのまま適用できるとは限りません。

今後の議論が必要な領域です。

おわりに

本記事では、AIが出力する文章によって名誉毀損が成立しうるかを、現行法の枠組みに照らして検討しました。

改めて整理すると、公然性の問題については、1対1のチャットでは原則として否定されるものの、AI Overviewsや自動生成記事のような第2類型では公然性が認められる可能性があり、第3類型(不特定多数が同一の名誉毀損的回答にアクセスできる構造)については公然性を実質的に肯定する解釈の余地があります。
事実の摘示については、AIが断定的に虚偽の事実を出力する場合には要件を満たすと考えられます。
同定可能性については、実名を出力する場合は問題なく認められます。

一方、責任主体の問題は依然として最大のハードルです。
米国Walters事件においてもAI開発者の責任が否定されたことに示されるように、AI開発者の過失や因果関係の立証は困難であり、製造物責任法も直接には適用できません。

特に本記事で指摘した、インターネット上の誹謗中傷がAIに学習され、元の書き込みを消しても名誉毀損的出力が再生産され続けるという構造は、従来の名誉毀損法理では想定されていなかった新たな被害類型であり、今後の立法的対応が求められる分野です。
日本では2025年にAI法が全面施行され、人工知能基本計画でもハルシネーションや偽・誤情報のリスクが明示的に認識されていますが、これらは基本法的・指針的な性格にとどまり、被害者の個別救済を直接強化するものではありません。

この問題は、AIの急速な普及に伴い、今後さらに深刻化することが予想されます。
判例の蓄積と法整備の進展を注視しつつ、現時点で可能な対応(証拠の保全、AI開発者への要請、ソースとなる誹謗中傷の削除)を着実に進めていくことが重要です。

弊所の弁護士へのご相談等はこちらから

  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

髙田法律事務所の弁護士。東京弁護士会所属 登録番号60427
インターネットの誹謗中傷や離婚、債権回収、刑事事件やその他、様々な事件の解決に携わっている。
最新のビジネスや法改正等についても日々研究を重ねている。

目次