ツイッターなどの比較的短く、履歴の浅い(遠い昔の話まで遡らないで直近の発言に反応する)発言は、チャットボットが得意とし、人間とチャットボットの区別が難しい範疇である。
MIT Technology Review に掲載されている記事
によると、120個のロボットを使った実験では、まず最初の30日間にTwitter社によってロボットであることを発見されてアカウントを停止されたのは僅か38個だけで、7割のロボットは発見されなかったという。この間、これらのロボットは延べ約5000人(その内の何人かは他のロボットかも知ないが)にフォローされ、2割以上のロボットは100人以上のフォロワーを得ることができた。Twitterの人間全ユーザーのうち46%しか、100人以上のフォロワーを持っていないことを考えると、素晴らしい結果である。また、Twitterにおける影響度を測るKloutという指数があるが、この研究者によるとロボットは有名な学者やソーシャルネット研究者並みのKloutを稼いだそうである。
これが意味していることは、企業側としては、Twitterロボットの悪用により、あたかもその企業の製品やサービスの人気があるかのようなニセの世論を作り上げることもできるが、同時に、競合企業のロボットにより戦略を誤らされる(例えば、競合にとって怖くない劣った製品やサービスの人気があるようなニセの世論を作られて、資源配分を誤るなど)ような可能性もある。Tweetのテキスト分析は、どこまで信用して良いのか分からないということだ。
ここまで人工知能が発達すると、140文字に拘る限り、効果的な対策は難しい。取り締まりを強化すると、本物の人間のアカウントを誤って停止してしまう確率が大きくなるからである。したがって、Twitterや他のSNSのテキスト分析に基づくビッグデータ活用には注意が必要となろう。