第673章 脑控升级测试,国家发现了什么?

刘森直接把他的智能眼镜的原有的固定脑波操作模式关闭。

然后开始直接通过多应用协同,连接上了刚刚完成的脑波数据模型。

然后开始在眼前的虚拟屏幕上进行了相关操作。

屏幕上的鼠标在QS版广播体操的图标上,他想要打开屏幕上行另一边蓝星畅聊APP 。

只见那个鼠标明没有移动轨迹,而是突然就出现在了蓝星畅聊上,然后瞬间打开了蓝星畅聊APP。

“果然出现了非常明显的变化,原来如果想要打开蓝星畅聊软件,原来在QS广播体操上面的鼠标会慢慢的移动到另一边的蓝星畅聊上面。”

“现在的操作完全更加的快捷,而且精准。”

“原来虽然也是脑波操控,但是在底层操控逻辑上,完全不一样。”

“原来的操控是通过意识中给出移动的念头,然后鼠标进行对应移动,这一切完全原先设定好的程序。这中间有一个认为转化匹配的过程,这一切操控必须是原来已经提前设置好的。”

“一旦你的命令,超出原来设置的鼠标移动动作以外,那么便不会出现对应的响应。”

像是一开始,就给一段固定的脑波进行匹配,X\u003d向左移动1厘米。

我一旦发出X脑波,电脑后台就会自动识别出,X\u003d左移动1厘米,然后鼠标开始向左移动1厘米。

一旦我发出另一个指令,想要向左上方37角度位置,移动5厘米,而这个脑波Y,却无法进行相关识别。

只有我录入相关的37%角计算方法,计算出这个位置,然后才会进行移动。

其中存在无数的计算,和提前预设。

比如更加复杂的我想要桌面上的鼠标箭头,进行向左前空翻360°左旋体两周半,然后在进行俯卧撑10个。

这个命令出来,估计接收指令的CPU都能算烧掉,都弄不明白这个玩意。

毕竟没有设计过相关指令。

但是现在的最新脑波控制,却实进行100%的匹配精确控制。

我们发出这个命令的时候,一边脑海中都会出现这么一个想象,那么那个鼠标就会立刻按照你得脑海想象,明白这个指令。

于是立刻进行动作。

这就是两个模式底层逻辑的不一样。