非営利の自殺相談チャットサービス「Crisis Text Line」が営利目的のスピンオフ「Loris.ai」とのデータ共有関係を終了し既存のデータを削除へ
非営利の自殺相談チャットサービス「Crisis Text Line」が、営利目的のスピンオフである「Loris」とデータを共有し、Lorisで作成したカスタマーサービスソフトウェアから収益を得ていたという事態が2022年1月末に報じられました。これを受けてCrisis Text Lineはデータ共有関係を終了し、LorisがCrisis Text Lineから得たデータを全削除することを発表しています。
An Update on Data Privacy, Our Community and Our Service - Crisis Text Line
https://www.crisistextline.org/blog/2022/01/31/an-update-on-data-privacy-our-community-and-our-service/
Crisis Text Line, from my perspective | danah boyd | apophenia
http://www.zephoria.org/thoughts/archives/2022/01/31/crisis-text-line-from-my-perspective.html
Crisis Text Line ends data-sharing relationship with for-profit spinoff - POLITICO
https://www.politico.com/news/2022/01/31/crisis-text-line-ends-data-sharing-00004001
Crisis Text Lineはビッグデータと人工知能(AI)を利用して、自傷行為・精神的虐待・自殺といったトラウマに対処する方法を相談者にアドバイスするメンタルヘルスサポートチャットサービスとして知られています。Crisis Text Lineは非営利団体なのですが、2022年1月18日にCrisis Text Lineがサービス運営のために営利企業である「Loris」とデータを共有してきたことが報じられました。LorisはCrisis Text Lineから入手したデータをもとにカスタマーサービスソフトウェアを作成しており、またCrisis Text LineはLorisと収益分配契約を結んでカスタマーサービスソフトウェアの販売から一定の利益を得ています。
AI自殺相談チャットがユーザーデータを企業と共有し利益を得ていることが明らかに - GIGAZINE
Crisis Text Lineは報道に対し「データは完全に匿名化されており、相談者を特定することにつながる情報はすべて削除されている」「データ共有は利用規約でユーザーの同意を得ている」と説明していますが、リバースエンジニアリングを用いることで個人の特定が可能であることや、全てのユーザーが利用規約を全て把握しているわけではないことが、問題点として指摘されました。
2022年1月31日、このような事態を受けてCrisis Text LineはLorisとのデータ共有関係を終了したことを発表しました。また、関係終了によりLorisが受け取ったCrisis Text Lineのデータは全て削除されるとのこと。なお、データ共有関係はありつつも、2020年初頭からLorisはCrisis Text Lineのデータにアクセスしていないことも発表されています。
ソーシャルメディア学者・Microsoft Researchの研究者でありCrisis Text Lineの取締役でもあるDanah Boyd氏はブログの中で「私たちが直面している倫理的な問題が『民間企業のデータアクセス』という二者択一の単純な問題ではないことをお伝えしたいです」とつづっています。例えば助けを必要とする人々に適切に対応するチャットサービスを開発するには、プラットフォーム上で交わされたカウンセラーとユーザーの会話をデータとして利用する必要がありますが、これは「個人のケアとサポート」を超えた範囲でのデータ利用にあたります。利用規約に内容の記載はできても、そこには倫理的な問題が常に存在する、とBoyd氏。
またBoyd氏はサービスが普及しさまざまな組織や企業に利用されていくにつれ、「十分にカウンセラーがいない時にどのように助けを提供するか」という問題を解決することを重視しました。この問題の解決には「優先順位付けを行い、最もリスクの高い着信リクエストに、最速でサービスを提供する」ことが必要でした。Boyd氏はこのような仕組みを構築し、運営のための収益を確保しつつも、倫理に配慮するために、Crisis Text LineのスピンオフとしてLoris立ち上げに同意したそうです。LorisはCrisis Text Lineから独立した企業ですが、あくまで営利目的の別会社なのでシステムへのフルアクセスを許可せずに「研究目的でのデータ共有」という形を取ったそうです。
しかし、Boyd氏はTwitterで「データ共有関係に同意した時、私は間違っていました」と投稿。
A little while ago, @CrisisTextLine also announced that we ended our data-sharing agreement with Loris: https://t.co/WBNTedlCTG I was wrong when I agreed to this relationship. (2/3)
— danah boyd (@zephoria) February 1, 2022
Crisis Text Lineはサービスの透明性を高め、よりオープンになることの重要さを述べ、「私たちは常により高いレベルを目指しています。専門家やコミュニティーからのフィードバックを歓迎します」として、そのためのアイデアを募りました。
・関連記事
Googleが自社技術に関する論文を前向きな論調にするよう研究者に求めていることが判明 - GIGAZINE
AIを人類にとって有益なものとして扱うために必要なこととは? - GIGAZINE
倫理に反する人工知能(AI)の開発は止められるべきなのか? - GIGAZINE
DeepMindが「AIの倫理」を研究する「DeepMind Ethics&Society(DMES)」を設立 - GIGAZINE
・関連コンテンツ
in ネットサービス, Posted by darkhorse_log
You can read the machine translated English article Non-profit suicide consultation chat ser….