ご意見 aiがaiであることを開示しなければならない理由

aiがaiであることを開示しなければならない理由

目次:

ビデオ: ドッスンに気をつけろ!マリオのハラハラã‚ノコ運び! 【マリオメーカã (五月 2024)

ビデオ: ドッスンに気をつけろ!マリオのハラハラã‚ノコ運び! 【マリオメーカã (五月 2024)
Anonim

グーグルは最近、レストランのホストとサロンのスタッフに彼らがグーグルアシスタントと話していることと記録されていることを明示的に明らかにするためにデュプレックスをplexしました。

Googleは5月のI / O開発者会議でDuplexを初めて紹介したとき、この小さな重要な詳細を省略しました。 メディアの反発が起こり、批評家は人間の行動を区別できない方法で偽装できるAIエージェントを解き放つことの意味についての古い恐怖を新たにした。

Duplexを調整することで、Googleはその批判の一部を緩和します。 しかし、企業がAIエージェントのアイデンティティについて透明であることがなぜそれほど重要なのでしょうか?

AIアシスタントは悪の目的を果たすことができますか?

「ビジネスにメッセージを送るとき、AIを搭載したチャットボットとやり取りできるという期待が高まっています。しかし、実際に人間の話し声を聞くと、一般的にそれが本物であると期待します」とCEOのJoshua March氏は言いますCoversocialの。

3月には、私たちはAIと定期的に有意義なやり取りをする人々の始まりであり、この分野の進歩により、ハッカーが悪意のある目的でAIエージェントを悪用する恐れがあると言われています。

「最良のシナリオでは、悪意のあるAIボットが人々を怒らせる可能性があります」とCujo AIのネットワーク担当上級副社長、Marcio Avillez氏は述べています。 しかし、Marcioは、私たちがさらに恐ろしい脅威に直面する可能性があると付け加えます。 たとえば、AIは特定の言語パターンを学習できるため、テクノロジーを適応させて人を操作したり、被害者になりすましたり、ビッシング(音声フィッシング)攻撃や類似の活動を簡単に行うことができます。

多くの専門家は、脅威が本物であることを認めています。 CIOのコラムで、Steven Brykmanは、Duplexなどのテクノロジーを活用するさまざまな方法を説明しました。「少なくとも、人間が人間を呼び出す場合、制限要因があります。人間は1日1時間あたり非常に多くの呼び出ししか行えません。しかし、AIチャットボットは、文字通り、無制限のさまざまな方法で無制限の人数に無制限の数の呼び出しを行うことができます!」

この段階で私たちが聞くことのほとんどは推測です。 音声アシスタントの出現で発生する可能性のある脅威の範囲と深刻さはまだわかりません。 しかし、音声ベースのアシスタントが関与する潜在的な攻撃の多くは、テクノロジーを提供する企業がAIエージェントとやり取りしているときにユーザーと明示的に通信している場合は、回避できます。

プライバシーの問題

Duplexなどのテクノロジーの使用を取り巻く別の問題は、プライバシーに対する潜在的なリスクです。 AIを搭載したシステムでは、アルゴリズムをトレーニングおよび改善するためにユーザーデータが必要であり、Duplexも例外ではありません。 そのデータをどのように保存、保護、および使用するかが非常に重要です。

企業が情報を収集する際にユーザーの明示的な同意を得る必要がある新しい規制が出現していますが、ユーザーが意図的にインタラクションを開始するテクノロジーをカバーするように設計されています。 これは、ユーザーがアクティブにするSiriやAlexaなどのAIアシスタントにとって意味があります。 しかし、トリガーされずにユーザーに手を差し伸べるAIアシスタントに新しいルールがどのように適用されるかは明確ではありません。

Brykmanの記事では、企業がAIエージェントの存在を宣言することを義務付けている法律、またはチャットボットがチャットボットであるかどうかをチャットボットに尋ねる場合、「はい、私はチャットボットです。」 このような手段により、人間の対話者は、音声を記録するAIシステムと対話するかどうかを決定するか、少なくとも決定することができます。

そのような法律があっても、プライバシーの懸念は消えません。 「テクノロジーの現在の転生で私が予測する最大のリスクは、Googleがまだ持っていない私生活に関するさらに多くのデータを提供することです。この時点まで、彼らはオンラインコミュニケーションのみを知っていました。 Xineohの創設者兼CEOであるVian Chinner氏は語ります。

大規模なハイテク企業が関与する最近のプライバシースキャンダルは、彼らが自分の利益のために疑わしい方法でユーザーデータを使用してきたため、私たちの生活により多くの窓を与えることに対する不信感を生み出しています。 「一般的に、大規模なシリコンバレー企業は顧客ではなく在庫として見ていると感じており、画期的で人生を変えるようなものであっても、彼らはほとんど何に対しても不信感を抱いている」とチナーは言う。

機能障害

自然な声とトーンを持ち、「mmhm」や「ummm」などの人間のような音を使用しているにもかかわらず、Duplexは他の現代のAIテクノロジーと違いはなく、同じ制限に悩まされています。

インターフェイスとして音声またはテキストのどちらを使用する場合でも、AIエージェントは特定の問題を解決するのに適しています。 そのため、私たちはそれらを「狭いAI」と呼びます(「一般的なAI」、つまり人間の心のように一般的な問題解決に関与できる人工知能の種類とは対照的です)。 狭いAIは、プログラムされたタスクの実行に非常に優れている場合がありますが、問題の領域から逸脱したシナリオが与えられた場合、劇的に失敗する可能性があります。

「消費者が人間と話していると思う場合、AIの通常のスクリプトの外にあるものを尋ねる可能性があり、ボットが理解できないとイライラする反応を得るでしょう」とConversocialの3月は言います。

対照的に、レストランでテーブルを予約するために訓練されたAIと話していることを知っている人は、AIを混乱させ、AIを予期せず動作させる言語の使用を避けようとします。それらは顧客です。

「デュプレックスから電話を受けるスタッフは、これが実在の人物ではないことを簡単に紹介する必要があります。これにより、スタッフとAIの間のコミュニケーションがより保守的で明確になります」とAvillez氏は言います。

このため、人間の知能と同等のパフォーマンスを実現できるAIを開発するまで(およびその場合)、AIの使用について透明性を持つことは企業自体の利益になります。

結局のところ、Duplexのような音声アシスタントの恐怖の一部は、彼らが新しいという事実によって引き起こされており、新しい設定やユースケースでそれらに遭遇することにまだ慣れています。 「少なくとも一部の人々は、知らないうちにロボットと話をするという考えに非常に不快に思われるので、とりあえず、会話の相手方に開示すべきでしょう」とChinner氏は言います。

  • AIは(また)善の力AIは(また)善の力
  • AIが現実とフィクションの間の線をぼかすときAIが現実とフィクションの間の線をぼかすとき
  • 人工知能にはバイアスの問題があり、それが私たちのせいです人工知能にはバイアスの問題があり、それが私たちのせいです

しかし、長い目で見れば、以前は人間のオペレーターの排他的ドメインであると考えられていたタスクを実行するのにより賢く、より能力のあるAIエージェントと対話することに慣れるでしょう。

「次の世代は、ビジネスに連絡するときにAIと人間のどちらに話しているかは気にしません。彼らはすぐに簡単に答えを得たいと思うでしょう。ボットと対話するだけでなく、人間と話すことを保留することははるかにイライラするでしょう」とConversocialの3月は言います。

aiがaiであることを開示しなければならない理由