
ChatGPT のハネムーン期間は終わったのでしょうか?
ChatGPT は、昨年のリリース以来、世界を席巻しました。しかし、最近の調査によると、
なぜ企業はChatGPTに対して冷淡なのでしょうか?
彼らはその能力を疑っているわけではない。むしろ、潜在的なサイバーセキュリティリスクを懸念しています。
生成 AI ツールは、あらゆる対話から学習するように設計されています。より多くのデータを与えれば与えるほど、彼らはより賢くなります。素晴らしいですね。
しかし、データがどこに行くのか、誰が見るのか、どのように使用されるのかについては、曖昧な部分があります。
こうしたプライバシー上の懸念により、イタリアのデータ保護当局が
企業にとっての懸念は、ChatGPT がユーザーが送信した情報を取得してそこから学習し、将来の他のユーザーとのやりとりに情報を漏らしてしまうことになるのではないかということです。
ChatGPT に関する OpenAI のガイドラインでは、ユーザー データがレビューされ、システムを改良するために使用される可能性があることが示されています。しかし、これはデータプライバシーにとって何を意味するのでしょうか?
答えは明確ではなく、それが不安の原因となっています。
Cyberhaven の調査によると、6 月 1 日までに、従業員の 10.8% が職場で ChatGPT を利用し、8.6% が会社情報を入力していました。憂慮すべき統計は、従業員の 4.7% が ChatGPT に機密情報を入力したことがあるということです。
また、ChatGPT の仕組みのせいで、従来のセキュリティ対策が不足しています。ほとんどのセキュリティ製品は、ファイルが共有またはアップロードされないように保護するように設計されています。ただし、ChatGPT ユーザーはコンテンツをコピーしてブラウザに貼り付けます。
今回、OpenAI にオプトアウト オプションが追加されました。ユーザーは、自分のデータがさらなるトレーニングに使用されないようリクエストできます。
ただし、オプトアウトはデフォルト設定ではありません。したがって、ユーザーが認識して積極的な対策を講じない限り、ユーザーのインタラクションが AI のトレーニングに使用される可能性があります。
懸念はそれだけではありません。
オプトアウトした場合でも、データは引き続きシステムを通過します。 OpenAI はデータが責任を持って管理されることをユーザーに保証しますが、ChatGPT は
何か問題が起こるリスクもあります。
2023 年 3 月 21 日、OpenAI は、チャット履歴に別のユーザーの名前が誤って付けられるという不具合のため、ChatGPT をシャットダウンしました。これらのタイトルにプライベートまたは機密情報が含まれていた場合、他の ChatGPT ユーザーがそれらを目にした可能性があります。このバグにより、一部の ChatGPT Plus 加入者の個人データも暴露されました。
最初の大規模な ChatGPT データ漏洩は今年初めに発生し、テクノロジー大手のSamsungが関与していました。ブルームバーグによると、機密性の高い内部ソースコードは、
このような漏洩は重大な影響を及ぼす可能性があります。
そしてそれはサムスンだけではありませんでした。テクノロジー業界のもう一つの巨人であるAmazonも、独自の懸念を抱えていました。会社
ChatGPT に Amazon の独自データが含まれている場合、それが競合他社に誤って流出するのを防ぐものは何でしょうか?
Generative AI ツールの急速な進化と導入により、規制当局は追いつきを続けています。責任ある使用に関するガイドラインは限られています。
では、AI が原因でデータ侵害が発生した場合、ツールを使用している企業、従業員、または AI プロバイダーの誰が責任を負うのでしょうか?
OpenAIでは
それは企業にリスクをもたらします。明確な規制がなければ、最善の行動方針を決定するのは彼らに任されています。だからこそ、多くの人が今、さらに躊躇し始めているのです。
新しいテクノロジーの導入に関して、企業は多くの場合、テクノロジーリーダーに注目します。テクノロジー大手が新たなイノベーションを導入すると、他の企業も追随することが許可されるとみなされることがよくあります。
そのため、マイクロソフトのような影響力のある企業がテクノロジーに関してさまざまなシグナルを発すると、その波紋は業界全体に波及します。
一方で、MicrosoftはGenerative AIツールの使用に難色を示している。 Microsoftは1月、ChatGPTと「機密データ」を共有しないよう従業員に警告した。
しかし、Microsoft は、独自のバージョンのテクノロジである Azure ChatGPT も支持しています。この反復により、企業ユーザーにとってより安全でより制御された環境が約束されます。
この動きは疑問を引き起こします。Azure ChatGPT は、より広範な生成 AI 環境において Microsoft が指摘したリスクに対して本当に影響を受けないのでしょうか?それとも、これは企業が Microsoft のエコシステム内に留まるようにするための戦略的な作戦なのでしょうか?
新しいテクノロジーを評価するとき、企業は潜在的な利点と潜在的な落とし穴の間で綱引きに巻き込まれることがよくあります。
ChatGPT では、企業は様子見のアプローチを採用しているようです。
テクノロジーとその規制が進化するにつれ、より安全で透明性の高い使用法が確立されることが期待されています。
今のところ、ChatGPT はちょっとしたコーディングのヘルプやコンテンツに最適です。しかし、私はそれを独自のデータに関しては信用しません。