ARグラスとか3Dホログラムとか、まあそんなのがあったとして、
とりあえず音声で質問するじゃないですか
すると、目の前に3Dの映像が出るでしょ?
ジェスチャーで回転させたり、駆動させたりできるでしょ?
質問したら、回答してくれるでしょ?
見ている部分を判断して勝手に説明しそうじゃない?
場合によっては、AIがほかの質問をサジェストしてくるかもよ?
このデータ仕様を決めたところが覇権を握れるかも、というのは別の話として、
ARグラスを通して見るだけでAIが自動的に判断して、知りたいことがわかるようになるわけでしょ?
こんな未来があと数年でやってくるのか、それとも10年以上かかるのかはわからないけど、なんとなく実現しそうじゃない?
だとしたらいまWebで、もっと言えばテキストベースのコンテンツで食べている人間は、いったいどうしたらいいんだろう。
いまのところ、結論は出てないです。