campaign
【11月2日 プレスリリース】AIライティングを検知する機能を搭載したiThenticateの最新版2.0を提供開始
詳細を読む
cancel
ブログ   ·  

学術誌におけるAIライティング:研究公正を遵守するためにできること

The Turnitin Team
The Turnitin Team
Laura Young
Laura Young
Content Marketing Specialist

たえず進化し続ける教育現場において、とくに2022年11月のChatGPTの登場以来、生成AIと学術研究がどのように交わるかが議論の的となっています。自動文法チェッカーから高度なコンテンツジェネレーターまでさまざまな生成AIツールが登場し、論文執筆の効率性と革新性という観点から、多くの人が新時代の到来を感じています。データ分析のスピードと深さを飛躍的に向上させたり、共同研究や先行研究を補強したりと、AIは研究者の強力な味方として活用されています。

しかし、論文執筆におけるAIの潜在的な恩恵を享受する一方で、研究公正(研究における公正性・透明性・健全性)や個々のオーサーシップ、人間ならではの能力にAIがどのような影響をもたらすのか、疑問も持ち上がっています。研究コミュニティが学問を追究するなかで、AIを責任をもって倫理的に活用するには、この微妙なバランスをどのようにとればよいのでしょうか。

本記事では、テクノロジーと伝統が交わる複雑な領域を探ります。学術論文執筆におけるAIの役割と潜在的な脅威、倫理面での配慮といった重要な問題をとりあげ、AIの多面的な影響について掘り下げていきます。

AIライティングが研究公正に与える影響とは

AIは研究プロセスの中でプラスにもマイナスにもなる可能性があります。利点としては、AIツールは先行研究の分析の効率化、ルーティン作業の自動化、データ分析の補助に役立つため、研究者がより高次の思考と結果の分析に集中することができます。とはいえ、AIによる自動化には欠点もあり、研究公正が損なわれる心配があります。

洞察の限界

先行研究の分析におけるAIの効果について研究したワグナーらは「(学問の進展に)貢献するには人間による解釈や洞察の統合、革新的な説明、理論の構築が必要であることに間違いない」と指摘しています。さらに、「反復性の高い作業を支援し、洞察に満ちた貢献を促進するには、まだ多くの課題が残る」と述べています(2021)。

AIは大量の文献を効率的に処理・分析することができますが、人間の研究者のように細やかに理解したり文脈を解釈したりすることはできません。学術論文の執筆でAIだけに頼ると、人間ならではの専門性を失い、重要な知見を見逃したり、ある発見の重要性を誤解したりする恐れがあります。

不適切な帰属

AIツールは学習データのパターンに基づいてコンテンツを生成するのは得意ですが、既存の文献の語句やアイデアを意図せず模倣・複製して利用することがあります(フアンとタン, 2023)。丁寧なチェックを怠ると、自分の研究に他者の研究を意図せず取り込んでしまう可能性があり、それが発覚すると、著者と出版社の双方の信用が傷つく恐れがあります。アイデアの独自性と帰属を維持することは研究公正を守るうえで必須であり、研究者はAI生成コンテンツの引用が適切であることを確かめ、意図せぬ倫理違反がないように気を配る必要があります。

「TECHWIRE Asia」の記事でズルフスニは、「ChatGPTのようなAIの仕組みを考慮すると、ユーザーが知らないところでAIが学習データのスタイルや内容を真似たテキストを意図せず生成する可能性も考えられる。この複雑な問題への単純な解決策はなく、社会がAI生成テキストという文脈のなかで盗用・剽窃をどのように認識し、定義するのかという重大な問題を提起している」と指摘します。AIの導入により、世界中の教育機関や組織のアカデミック・インテグリティ(学問における誠実性・公平性・一貫性)の方針に大きなグレーゾーンが生まれており、AIを活用するうえで何が学術不正に当たるのかについての合意がなされるまでは、警戒を怠らないことが大切です。学術論文の独自性と真正性を守るために、適切に引用し、出版社の方針をチェックし、盗用・剽窃をなくすための専用チェックツールを利用して意図せぬ複製を防ぐことをお勧めします。

もちろん、研究コミュニティにおける生成AIの革新的な位置づけを考えると、AI生成コンテンツを引用することが魅力的な成果につながる可能性もありますが、不慣れであることを理由に引用の不備を正当化してはいけません。AIツールと人間の著者のあいだでどのようにクレジットを割り当てるかを決めるための明確なガイドラインが必要不可欠です。教育・研究機関や組織は、AIと人間、それぞれの貢献を認めるために透明性のあるのシステムを確立することが求められています。これは、AIの影響がますます大きくなる時代において、研究公正を守るためにきわめて重要です。そのように透明性を確保することで、読者や査読者、そして学術コミュニティ全体がAIと人間の研究者双方の貢献を評価できるようになり、学術ライティングにおける情報公開と説明責任の文化が育まれるのです。

AI時代に対応してアカデミック・インテグリティ方針を更新するためのガイドラインをダウンロードする

意図しないバイアス

生成AIに潜むバイアスに対処することは研究コミュニティの倫理的な必須事項です。というのも、生成AIのバイアスが学術論文の客観性と公平性に微妙な影響を与えたり、損なったりする可能性があるからです。AIのアルゴリズムは学習データから学習したものですが、世界的なステレオタイプや偏見を永続させ、助長することもあるバイアスが学習データに含まれていることが明らかになっています

これについてOpenAIは次のように公表しています。ChatGPTにはバイアスやステレオタイプが含まれていないとは言えないため、利用者と教育者はその内容を注意深く確認する必要があります。バイアスやステレオタイプを示唆・強化する可能性のあるコンテンツを批判的に評価することが重要です。私たちはバイアスを緩和するための研究に取り組んでおり、改善に向けて皆さまからのフィードバックをお待ちしております」

学術論文に不当な影響や差別が入り込まないようにするために、細心の注意を払ってAIのアルゴリズムの中のバイアスを特定し、是正する必要があります。これは人間の介入なくしてはできないことです。

AIのハルシネーション(幻覚)

研究論文の執筆にAIを取り入れることについて、「AIのハルシネーション(幻覚)」という新たな懸念も生まれています。この現象は、AIが推測や想像に基づくコンテンツを生成するときに起こるもので、事実の正確性から逸脱する可能性があります。先行研究のレビューにおいては正確性と信頼性が非常に重要であるため、AIのハルシネーションが研究公正にもたらす影響はきわめて重大な懸念事項となります。アルカイシとマクファーレン(2023)は「ChatGPTは信頼できる科学論文を書けるが、生成されたデータには本物と完全なねつ造が混在している」と強調します。彼らはこの問題を解決する方法の1つとして、AIライティングを検知するテクノロジーを提唱しています。

AI生成コンテンツが創造的な可能性を示す一方で、イノベーションと事実的な正確さの保持のバランスを求められます。研究者はAIがハルシネーションを起こす点に注意し、コンテンツに実証的な根拠が含まれない可能性を認識しなければなりません。その問題を緩和するためには透明性が大切な要素です。透明性を確保することで、AIの創造能力とエビデンスに基づく研究へのたゆまぬ努力を合致させることができるのです。

AIライティングは研究公正の脅威となるのか

AIそのものがライティングを本質的に脅かすことはありませんが、AIがどのように取り入れられ、利用されるかで脅威となる可能性があります。人間が批判的にチェックせずにAIツールに頼りすぎると、意図しない盗用・剽窃や、出典の不備、論文の質の低下などの問題につながる恐れがあります。AIは生産性と効率を向上させるツールであり、文章を書く際の人間特有の表現力や創造力、批判的思考力に取って代わるものではないことを認識する必要があります。

出版業界の国際的なイベントであるPubConでの議論において、Crossrefのプロダクト・マネージャーのファビエンヌ・ミショーは、「AIに関する最大の脅威の1つは、独自性と創造性、そして洞察の欠如です。AIライティングツールは正確性を保証するよう作られているわけではありません。そうではなく、もっともらしい答えを出すよう設計されています。これは、学術出版の根幹をなす価値観に相反するものです」との意見を共有しました。

偽の論文アブストラクトを研究したエルス(2023)は、ChatGPTの最大の課題の1つは、驚くほど説得力のある偽の論文アブストラクトを生成する、強い能力であると指摘しています。ChatGPTでさえ、「ChatGPTは間違いを犯すことがあります。重要情報は確認してください」とアドバイスを公表しています。

ソフトウェア技術に関する質問へのChatGPTと「スタック・オーバーフロー」(プログラマー向けの質問サイト)の回答を研究したカビールら(2023)は、スタック・オーバーフローに寄せられた517の質問についてChatGPTの回答を分析しました。ChatGPTの回答の正確性、一貫性、包括性、簡潔さを評価した結果、回答の52%に不正確な内容が含まれていることが分かりました。

AIの強みを生かしつつ、人間が書いたコンテンツの真正性を保持することが、AIの既知の脅威を軽減し、文章作成においてAIを倫理的に活用するためにきわめて重要です

AIライティングツールは研究公正にのっとった学術論文を生成できるのか

AIツールは、コンテンツの提案や引用形式の整備、情報の整理といった点で学術論文の執筆に役立つ可能性があります。他方で、仮説を立てたり複雑な結果を解釈したりするために必要な批判的思考や創造性、文脈の理解は、現行のAI機能では限界があります。ナラヤナスワミは「NLP(自然言語処理機)はあくまでも機械であり、人間ではないため、研究トピックの複雑さや機微を完全には理解できないかもしれない。AIベースのモデルは文脈を見失い、論文の一部を完全に間違って解釈したり、架空の研究対象や統計を用いて完全に嘘の研究をでっちあげることさえある」と客観的な判断をくだしています(2023)。

現段階でAIを活用するもっとも有望な方法は、論文の各セクションの草稿作成にAIの助けを借りつつ、人間の研究者が情報のインプットを行って一貫性を保証する、という協働モデルでしょう。包括的で洞察に満ちた学術論文の執筆において、人間がAIと協働すると、AIの効率性と人間の専門性をそれぞれ最大化することができます。つまり、AIは論文執筆のある側面を自動化できる一方で、AIが独立して論文すべてを作成するには複雑な課題が残っており、人間の研究者の関与が必須なのです。

研究論文全体をAIに執筆させるのであれ、単に補助ツールとして活用するのであれ、AIの使用を認めるかどうかはジャーナルによって異なることに注意してください。論文作成に生成AIを使い始めるまえに、AIライティングツールを研究の補助として活用することについての出版社ごとの方針をきちんと確認することをお勧めします。

パーク(2023)は投稿論文における生成AIへのアプローチについて、ハイインパクトジャーナル(インパクトファクターの高い学術誌)ごとに大きな違いがあることを議論しています。サイエンス誌はAIライティングをまったく容認しない一方で、エルゼビア社の方針はそれほど厳しくなく、AI使用の目的が「論文の読みやすさと言語面を改善するためであり、科学的、教育的、医学的な知見の創出や科学的結論の導出、臨床的な提言など、著者がすべき主な役割に取って代わるものでない」かぎり、生成AIの使用を認めています。また、エルゼビア社は著者が論文執筆にAIを用いた場合は、その旨を公表しなければならないことを付言しています。

テクノロジーの力で、AIライティングから研究公正を守る

AIライティングが研究公正に悪影響を与える可能性を最小限にするためには、テクノロジーが頼れる味方として役立ちます。AIが搭載された高度なインテグリティツールを活用すると、AI生成テキストが倫理基準にのっとっていることを保証し、既存の研究を意図せず複製してしまう事態を避けることができます。研究者自身が自分の論文と既存の論文との類似性を前もって確認し、対処することで、学問への独自の貢献を保証することができます。

AIライティング検知ツール

生成AIの高性能化によって、AIが生成した文章を人間が手作業で特定するのがますます難しくなっています。AI生成コンテンツと人間が書いたコンテンツを区別するのに役立つAIライティング検知ツールを導入すると、学術コミュニティ内で説明責任を育み、信頼の構築をサポートできます。ガオらの研究によると、人間の査読者が正確に特定できたのは、AIが生成した科学論文アブストラクトではわずか68%、人間の書いたアブストラクトでは86%でした(2022)。

AIライティング検知ツールは、執筆プロセスを可視化することで、各研究者の研究への貢献を適切に評価するのに役立つため、AIが人間の知性に影を落とすのではないかという懸念を払拭します。AIライティング検知ツールを使うとAI生成コンテンツのチェックに要する労力を最小化できるので、研究者と出版社の負担が軽減されます。大量の論文をスピーディーにチェックできるため、従来の高負荷な出版プロセスを効率化します。

他のAIを活用した取り組みと同様に、論文がAIによって書かれた可能性を分析するのにテクノロジーを使う際には、誤検知の可能性や故意であるかどうかを考慮して、人間の解釈を優先させることを推奨します。

ターンイットインのAIライティング検知のデモを見る

協働のための研究ツール

1本の論文が出版されるまでに、査読や編集、形式面での校正など複数の段階が踏まれます。関係者全員にとって最高の結果を得るために、多くの頭脳がもてる知識を総動員して取り組む一大事業なのです。そのような執筆と出版の一連のプロセスを通して協働がなされなければ、効率と正確性、さらには公正性が低下するのは当然ですし、完全に損なわれてしまう恐れもあります。研究の質を高める方法を研究したリャオは「研究者が協働的なネットワークに組み込まれる強度が強いほど、研究の質も高くなる」ことを明らかにしました(2010)。

査読プロセスにテクノロジーを取り入れると、効率的にAI生成コンテンツの問題を特定できます。人間の専門知識という強みとAI支援を組み合わせた協働的なアプローチにより、研究論文を徹底的に評価できます。これは潜在的な危険を見抜くだけでなく、盤石な査読プロセスの構築にもつながります。

学術不正につながる可能性のあるミスや一貫性のなさを指摘して品質を保証するテクノロジーは、AIから研究公正を守るうえで重要な役割を果たします。これらのツールは研究成果が厳しい基準を満たし、学術研究の信頼性を維持していることを保証するので、学術論文全体の質の向上に寄与するのです。

まとめ:AIライティングが研究公正に与える影響

AIが科学研究に及ぼす影響は革命的で、プロセスの迅速化や分析の強化、新たな探究の道の開拓などが期待できます。今やAIは、大量のデータを驚くほどのスピードで処理する、頼れるリソースとなっており、従来のやり方では見過ごされていたパターンや相関を見つけるのに役立ちます。このように活用するとAIが強力な援軍となり、研究者は結果の解釈や仮説構築に集中できるようになります。さらにAIは、分野や物理的な距離を越えたデータの共有・分析を可能にするため、研究者間の協働を促進します(ブルクハイゼン他, 2023)。

このような利点がある一方で、研究におけるAIの倫理的な活用に関しては課題もあります。チャッブらは、AIが研究過程にもたらす生産性と効率性を「遅れをとらないための高速化」であると評して、「人間的な判断がデータや文献の意外な解釈を生みだす機会が曖昧になり、アウトプットの質が低下する」ことで「学術文化の否定的側面を増長させる」と指摘します(2022)。

人工知能が学術論文の執筆プロセスを変容させつつある今、研究の公正性と卓越性の基本原則を守るうえで、AIライティング検知ツールのようなテクノロジーが非常に重要な役割を果たします。

論文執筆のワークフローにAIライティング検知ツールを戦略的に取り入れることで、研究者も出版社も、技術の進歩にも動じることなく、倫理にのっとった知の追究がなされていると自信をもてるでしょう。
AIの恩恵を、責任をもって享受しましょう。