El internet es un mundo compuesto por una increible cantidad de datos, estos datos pueden ser manipulados y ordenados de la manera que el cibernauta desee y como le sea posible. Han habido personas que con la manipulación total y estratégica de estos datos logran amontonar dinero y obtener poder de una manera asombrosa.

Es sumamente impresionante como la información en internet se propaga hacia todas las redes del mundo, y la gran variedad de preferencias distintas que existen en esta era virtual. La gran mayoria de las transacciones bancarias en el mundo se realizan por internet, las compras, el manejo de envios, acumulación de datos personales e información de ofertas de trabajos; esto es por mencionar unas cuantas de la grandes ventajas que existen y que se le puede sacar el provecho positivo a la internet. Pero... ¿Existe algún centro o una entidad que sea capaz de mantener organizada esta gran cantidad de información y ordenarla?, esto no se sabe a ciencia cierta pero si hay compañias que son capaces de clasificar y de acaparar gran cantidad de información sin que se disloque el sistema de Data. Estas entidades son manejadas por grandes matemáticos, estadísticos y hombres de negocios de gran habilidad que aprovechan el gran flujo de información que circula por la internet. Estas suelen ser sectas con influencias de masoneria y que tienen la gran capacidad de aplicar fórmulas y algoritmos a poderosas máquinas de computación que están disponibles. Un ejemplo de estos son los buscadores o metabuscadores, google, yahoo etc... estos trabajan en grandes laboratorios multinacionales o en star-ups. De estos Google es el buscador mas popular a nivel mundial.

Google y su poder

El impacto que ha tenido google a nivel mundial como buscador es impresionante, este ha tenido un impacto descomunal en el area de la tecnología, ademas google es una de las mas valoradas en bolsa. Google inicio como un proyecto de dos matemáticos, que en la segunda mitad de la decada de los 90, batallaron en sus mentes para crear un algoritmo, rapido y eficiente que enlazara una gran cantidad de información al poner palabras y letras. Estas letras y palabras se conectan con un código matemático que genera una gran cantidad infinita de permutaciones, que logra enlazar rápidamente la mayor cantidad de webs posibles que tengan esas palabras.

Existe una instalacion que elabora una gran cantidad de modelos matemáticos con datos de miles de consultores, para sacar mas provecho a esa gran cantidad de información que proporciona google. Este buscador asocia miles de símbolos y probabilidades que son procesados en el momento al hacer click en buscar. Este buscador funciona en todas las plataformas y sistemas operativos, en Google, el proceso de este funciona como un metabuscador que es realizado por varios exploradores distribuidos. Existe un proceso de data que viaja por la web, que es el código donde se crean las páginas de internet. Este paquete de resultados  son descargados a los exploradores. Estas webs son iniciadas por un downloader o descargador de servidores, que se le puede llamar tienda de servidores, este storeserver comprime y guarda las páginas en un sistema de almacenamiento. Toda página tiene asociado un identificador, este se denomina identificador de documento, que es asignado cada vez cuando un nuevo código es interpretado desde una web. La función de indexación es llevada a cabo por un proceso compilador y un clasificador. El indexador lleva a cabo varias funciones: Lee el streserver, descomprime los documentos y los interpreta, cada documento es convertido en un conjunto de ocurrencias de palabras llamadas hits o aciertos.  Estas son las permutaciones probabilísticas, Cada acierto registra la palabra, posición en el documento y una aproximación del tamaño de la fuente y si está o no en mayúsculas. El indexador distribuye estos aciertos en una serie resultados creando un índice.

El proceso de creacion de los resultados están ordenados por identificador de documentos que estan indexados con la codificación de la información donde esta los reordena por orden de identificador de palabras, este genera las mas parecidas en primer lugar por orden cronológico. Esto es realizado en el mismo lugar para tratar de hacer la busqueda mas certera. El clasificador produce también una lista de palabras y desplazamientos al índice invertido. Un programa denominado dumplexicon toma la lista junto con el léxico producido por el indexador y genera un nuevo léxico para ser usado por el buscador.

El gran contenido no deseado que producen los buscadores y la falta de seguridad que produce

Entre la disponibilidad inmediata que existe al acceso de información esa data puede ser cambiada o filtrada, incluso reinvertida por otra similar, existen miles y miles de blogs que poseen información que sustituye los datos que pueden propocionar de manera veridica los libros certificados. Muchos de estos blogs son creados por personas, que implementan dispositivos automáticos en sus webs filtrando y entremezclando la información.

Las informaciones verdaderamente confiables son aquellas que se sacan de los libros especializados en cada area, ya que la manipulacion de datos en internet es sumamente común y variada a gran escala. La internet es ideal para información de consulta pero no como documentación original certificada.

 

 

Comparte este Goo:

¿Tiene contenido inapropiado?

Comparte este goo con un amigo: