Este lunes, Google presentó reCAPTCHA v3 , su nueva API para ayudar a los administradores de los sitios web a detectar tráfico abusivo, es decir, a detectar bots, como vienen ahora desde hace años con sus anteriores implementaciones.
Lo que hace que sea diferente a esta nueva versión de los famosos CAPTCHA que nos han perseguido por años en infinidad de sitios web es que no hay una intervención del usuario, por primera vez, podemos decir , por el contrario, que somos humanos , gracias a un nuevo Sistema de puntaje.

Todo el que tenga una nueva cuenta en Internet ha tenido que resolver un CAPTCHA alguna vez en la vida. Al inicio de los tiempos Eran usualmente Aquellas Combinaciones de Letras y Números casi ilegibles Que se acercaban casi una resolución de la ONU Tener que “acertijo” Para Que La web estuviese convencida de Que Sí Era Un humano Tratando de ingresar un robot de ella y no de la ONU .
Durante una década Google ha estado trabajando en sus propios CAPTCHA para mejorar la detección de robots , es decir, en reCAPTCHA . Esta tecnología más avanzada es una evolución del CAPTCHA, y su más reciente versión, el reCAPTCHA v3 que acaba de ser lanzado, es la más inteligente hasta ahora.
Ya has reCAPTCHA de Google han dicho adiós a los códigos que teníamos que resolver, y en cambio pasamos a solo tener que hacer un clic marcando una casilla. En ese momento ya Google había empezado a utilizar algoritmos para examinar varias pistas sobre el usuario, como su IP o las cookies activas en su navegador.
reCAPTCHA v3 cambia fundamentalmente la forma en la que un sitio web diferencia entre los usuarios humanos o bots , ejecutando lo que en Google han llamado “un análisis adaptativo de los riesgos”, una forma en la que reCAPTCHA analiza las acciones que los usuarios llevan a cabo en un cabo El sitio web.
Todo esto sin interrumpir al usuario en su navegación, por lo que Google le recomienda a los webmasters que le gusta a más secciones de sus sitios web, de la forma que puede a su vez el comportamiento de cada usuario y así crear modelos predictivos entrenando a la IA, de forma que cada sitio web pueda combatir el tráfico malicioso ajustado a sus necesidades de forma más específica .
Esto es una buena noticia para los usuarios que justamente eso, una experiencia de navegación ininterrumpida en más sitios web que implementen este sistema. Y, para los administradores de los sitios web se apuntan los beneficios de poder determinar el nivel de tráfico real de las respuestas de los usuarios, y también de los siguientes pasos adicionales de verificación para aquellos que tienen las calificaciones más bajas.
FUENTE/ GENBETA