Contenido Checked

Información

Temas relacionados: La vida cotidiana ; Matemáticas

Antecedentes de las escuelas de Wikipedia

SOS Children ha intentado que el contenido de Wikipedia más accesible por esta selección escuelas. Apadrina un niño para hacer una diferencia real.

Los ASCII codifica la palabra "Wikipedia", representado en binario , el sistema de numeración más comúnmente utilizados para la codificación de información de la computadora.

Información como concepto tiene una diversidad de significados, de uso cotidiano para los ajustes técnicos. En términos generales, el concepto de información está estrechamente relacionado con las nociones de restricción, la comunicación , control, de datos, forma, instrucción, conocimiento, significado, estímulo mental, patrón, percepción, y la representación.

Muchas personas hablan de la Era de la Información como el advenimiento de la Era del Conocimiento o sociedad del conocimiento, la sociedad de la información, y tecnologías de la información, y aunque informática, ciencias de la información y la informática están a menudo en el punto de mira, la palabra "información" se utiliza a menudo sin una cuidadosa consideración de los diversos significados que ha adquirido.

Etimología

De acuerdo con la Diccionario Inglés de Oxford, el significado histórico más antiguo de la palabra información en Inglés fue el acto de informar o dar forma o forma a la mente, como en la educación, instrucción o capacitación. Una cita de 1387: "Cinco libros bajan del cielo para obtener información de la humanidad." También fue utilizado por un artículo de la formación, por ejemplo, una instrucción particular. "Melibee había oído las grandes habilidades y razones de Dame la prudencia y la información y técnicas de sabio." (1386)

Al parecer, la palabra Inglés se obtiene sumando el "sustantivo de acción" común final "-ation" (descendientes a través del francés del latín "-TiO") con el verbo antes de informar, en el sentido de dar forma a la mente, disciplina, instruir, enseñar: "Los hombres lo sabias debe ir e informar a sus reyes." (1330) Informe a sí viene (vía francés) de la informare verbo latino, para dar forma a, para formar una idea de. Por otra parte, la propia América ya contenía incluso el concepto palabra informatio significado o idea, pero la medida en que esto puede haber influido en el desarrollo de la información palabra en Inglés está claro.

Como nota final, la palabra del griego antiguo que forma era eidos, y esta palabra se utilizó famoso en un sentido filosófico técnico por Platón (y más tarde Aristóteles) para denotar la identidad ideal o esencia de algo (ver Teoría de las formas). "Eidos" también puede estar asociada con pensado, proposición o incluso concepto.

La información como un mensaje

La información es el estado de un sistema de interés. El mensaje es la información materializado.

La información es una cualidad de una mensaje de una remitente a uno o más receptores. La información es siempre sobre algo (tamaño de un parámetro, la ocurrencia de un evento, etc). Visto de esta manera, la información no tiene que ser exacta. Puede ser una verdad o una mentira, o simplemente el sonido de un beso. Incluso un ruido perturbador utilizado para inhibir el flujo de comunicación y crear malentendido sería en esta vista ser una forma de información. Sin embargo, en términos generales, si la cantidad de información en los incrementos de mensaje recibido, el mensaje es más preciso.

Este modelo asume que hay una clara remitente y al menos un receptor. Muchos refinamientos del modelo asumen la existencia de un lenguaje común entendido por el remitente y por lo menos uno de los receptores. Una variación importante identifica la información como la que se comunica por un mensaje si se hubiese enviado desde un emisor a un receptor capaz de comprender el mensaje. Sin embargo, al exigir la existencia de un remitente determinado, la "información como un mensaje" modelo no concede ninguna importancia a la idea de que la información es algo que se puede extraer de un entorno, por ejemplo, a través de la observación, la lectura o la medición.

La información es un término con muchos significados dependiendo del contexto, pero es por lo general muy relacionado con conceptos como significado, el conocimiento, la enseñanza, la comunicación, la representación y el estímulo mental. En pocas palabras, la información es un mensaje recibido y comprendido. En cuanto a los datos, se puede definir como un conjunto de hechos de los que se pueden extraer conclusiones. Hay muchos otros aspectos de la información, ya que es el conocimiento adquirido a través del estudio o la experiencia o instrucción. Pero en general, la información es el resultado de la transformación, manipulación y organización de datos de una manera que se suma al conocimiento de la persona que lo recibe.

Teoría de la comunicación es una medida numérica de la incertidumbre de un resultado. Por ejemplo, podemos decir que "la señal contenía miles de bits de información". Teoría de la comunicación tiende a utilizar el concepto de entropía de información, generalmente atribuida a CE Shannon (ver más abajo).

Otra forma de información es Información de Fisher, un concepto de RA Fisher. Esto se utiliza en la aplicación de las estadísticas para teoría de la estimación y la ciencia en general. Información de Fisher es considerado como la cantidad de información que un mensaje lleva sobre un parámetro no observable. Se puede calcular a partir del conocimiento de la función de probabilidad la definición del sistema. Por ejemplo, con una función normal de probabilidad, la información de Fisher es el recíproco de la varianza de la ley. Ante la falta de conocimiento de la ley de probabilidad, la información de Fisher se puede calcular a partir de datos de la puntuación de distribución normal como el recíproco de su segundo momento.

A pesar de que la información y los datos se usan indistintamente, en realidad son muy diferentes. Datos es un conjunto de información no relacionada, y como tal no sirve de nada hasta que se evalúa correctamente. Tras la evaluación, una vez que hay alguna relación significativa entre los datos, y muestran cierta relevancia, entonces se convierten en información. Ahora estos mismos datos se pueden utilizar para diferentes propósitos. Por lo tanto, hasta que los datos transmiten algo de información, no son útiles.

Medición de la entropía de información

La vista de la información como un mensaje entró en la prominencia con la publicación en 1948 de un influyente artículo de Claude Shannon, " Una teoría matemática de la comunicación ". Este documento proporciona las bases de teoría de la información y dota a la información de la palabra, no sólo con un sentido técnico, sino también una medida. Si es igualmente probable que enviar a uno cualquiera de un conjunto del dispositivo de envío N mensajes, la medida preferida de "la información que se produce cuando se elige un solo mensaje de la serie" es la base de dos logaritmo de N (Esta medida se llama auto-información). En este trabajo, Shannon continúa:

La la elección de una base logarítmica corresponde a la elección de una unidad para medir información. Si se utiliza la base 2 las unidades resultantes pueden ser llamados dígitos binarios, o más brevemente pedacitos, una palabra sugerida por JW Tukey. Un dispositivo con dos posiciones estables, como un relé o un circuito flip-flop, puede almacenar un bit de información. N tales dispositivos pueden almacenar N bits ...

Una forma complementaria de la información de medición es proporcionada por teoría de la información algorítmica. En resumen, esta mide el contenido de la información de una lista de símbolos en función de cómo predecible que son, o más específicamente de lo fácil que es para calcular la lista a través de un programa: el contenido de información de una secuencia es el número de bits del programa más corto que calcula la misma. La secuencia a continuación tendría una medición muy bajo algorítmica de la información, ya que es un patrón muy predecible, y como sigue el patrón de la medición no cambiaría. Información de Shannon daría la misma medición de información para cada símbolo, ya que son estadísticamente al azar, y cada nuevo símbolo aumentaría la medición.

123456789101112131415161718192021

Es importante reconocer las limitaciones de la teoría de la información tradicional y teoría de la información algorítmica desde la perspectiva de significado humano. Por ejemplo, cuando se refiere al contenido de significado de un mensaje Shannon señaló "Con frecuencia los mensajes tienen significado ... estos aspectos semánticos de la comunicación son irrelevantes para el problema de ingeniería. El aspecto importante es que el mensaje real es uno seleccionado entre un conjunto de posibles mensajes "(énfasis en el original).

En información de señales de teoría son parte de un proceso, no una sustancia; Hacen algo, que no contienen ningún significado específico. Combinando teoría algorítmica de la información y la teoría de la información se puede concluir que la señal más aleatorio contiene la mayoría de la información, ya que puede ser interpretada de ninguna manera y no se puede comprimir.

Micheal Reddy señaló que "" señales "de la teoría matemática son 'los patrones que se pueden intercambiar. No hay ningún mensaje contenido en la señal, las señales transmiten la posibilidad de seleccionar entre un conjunto de posibles mensajes. "En teoría de la información", el sistema debe estar diseñado para funcionar para cada posible selección, no sólo la que realmente se elige desde esto es desconocido en el momento del diseño ".

Información como un patrón

La información se representa cualquier patrón. Este punto de vista asume ni la precisión ni partes que se comunican directamente, sino que asume una separación entre un objeto y su representación. Considere el siguiente ejemplo: estadísticas económicas representan una economía , sin embargo de manera inexacta. Lo que comúnmente se conocen como datos en computing, estadísticas y otros campos, son formas de información en este sentido. Los electromagnéticas patrones en un red informática y conectado dispositivos están relacionados con algo que no sea el patrón en sí, como caracteres de texto que se mostrarán y entrada de teclado. Señales, signos, y símbolos son también en esta categoría. Por otro lado, según semiótica, los datos son símbolos con cierta sintaxis y la información es de datos con una cierta semántica. Pintura y dibujo contiene información a la medida en que representen algo tal como un surtido de objetos sobre la mesa, una perfil, o un paisaje . En otras palabras, cuando un patrón de algo se transpone a un patrón de algo más, esta última es la información. Este sería el caso si hay o no había nadie para percibirlo.

Pero si la información se puede definir simplemente como un patrón, ¿significa eso que ni utilidad ni sentido son componentes necesarios de información? Podría decirse que hay que distinguir entre datos sin procesar crudo y la información que posee la utilidad, valor o alguna cuántico de sentido. En esta vista, la información de hecho puede ser caracterizado como un patrón; pero esto es una condición necesaria, no es un suficiente.

Una entrada individual en una guía telefónica, que sigue un patrón específico formado por el nombre, dirección y número de teléfono, no se convierta en "informativo" en algún sentido a menos que y hasta que se posee algún grado de utilidad, valor o significado. Por ejemplo, alguien podría buscar el número de una amiga, podría pedir un llevar etc. La gran mayoría de los números nunca se interpretará como "información" en ningún sentido significativo. La brecha entre los datos y la información sólo está cerrado por un puente de comportamiento por el que se añade un poco de valor, utilidad o significado de transformar simples datos o patrón en información.

Cuando se construye una representación de un objeto, se puede extraer selectivamente desde el objeto ( muestreo) o el uso de un sistema de signos para reemplazar ( codificación), o ambos. El resultado de muestreo y codificación en la representación. Un ejemplo del primer caso es una "muestra" de un producto; un ejemplo de esto último es "descripción verbal" de un producto. Ambos contienen la información del producto, sin embargo inexacto. Cuando se interpreta la representación, se puede predecir un patrón más amplio de un número limitado de observaciones (inferencia) o de entender la relación entre los patrones de dos cosas diferentes ( decodificación). Un ejemplo del primer caso es para tomar una sopa de saber si se echa a perder; un ejemplo de esto último está examinando huellas para determinar el animal y su condición. En ambos casos, las fuentes de información no se construyen o se presentan por algunos "emisor" de la información. En cualquier caso, la información depende, pero por lo general no relacionada y separada, el medio o el soporte utilizado para expresarlo. En otras palabras, la posición teórica de una serie de bits, o incluso la salida una vez interpretado por un ordenador o dispositivo similar, no es importante, excepto cuando alguien o algo está presente para interpretar la información. Por lo tanto, una cantidad de información es totalmente distinta de su medio.

Información como entrada sensorial

A menudo la información se considera como un tipo de de entrada a un organismo o dispositivo diseñado. Las entradas son de dos tipos. Algunas entradas son importantes para la función del organismo (por ejemplo, alimentos) o dispositivo ( energía ) por sí mismos. En su libro Ecología Sensorial, Dusenbery llamó a estos insumos causales. Otras entradas (información) sólo son importantes porque están asociados con entradas causales y pueden utilizarse para predecir la ocurrencia de una entrada causal en un momento posterior (y tal vez otro lugar). Parte de la información es importante debido a la asociación con otra información, pero finalmente debe haber una conexión a una entrada causal. En la práctica, la información se lleva a cabo normalmente por estímulos débiles que deben ser detectados por los sistemas sensoriales especializadas y se amplificó mediante entradas de energía antes de que puedan ser funcional para el organismo o dispositivo. Por ejemplo, la luz es a menudo una entrada causal a las plantas sino que proporciona información a los animales. La luz de color reflejada de una flor es demasiado débil para hacer mucho trabajo fotosintética pero el sistema visual de la abeja lo detecta y el sistema nervioso de la abeja utiliza la información para guiar a la abeja a la flor, donde la abeja a menudo encuentra el néctar o polen, que son entradas causales, que sirven una función nutritiva.

La información es cualquier tipo de información sensorial. Cuando un organismo con una sistema nervioso recibe una entrada, transforma la entrada en una señal eléctrica. Esto es considerado por algunos información. La idea de la representación sigue siendo relevante, pero de una manera ligeramente diferente. Es decir, mientras la pintura abstracta no representa nada en concreto, cuando el espectador ve la pintura, sin embargo, se transforma en señales eléctricas que crean una representación de la pintura. Definido de esta manera, la información no tiene que estar relacionado con la verdad, la comunicación, o la representación de un objeto. Entretenimiento en general no pretende ser informativo. La música , la artes del espectáculo, parques de atracciones, obras de ficción y así sucesivamente son, pues, las formas de información en este sentido, pero no son necesariamente las formas de información de acuerdo con algunas definiciones dadas anteriormente. Veamos otro ejemplo: el suministro de alimentos, tanto la nutrición y sabor para aquellos que lo comen. Si la información se equipara a la entrada sensorial, a continuación, la nutrición no es información, pero el gusto es.

Información como una influencia que conduce a una transformación

La información es cualquier tipo de patrón que influye en la formación o transformación de los patrones de otros. En este sentido, no hay necesidad de una mente consciente de percibir, mucho menos apreciar, el patrón. Consideremos, por ejemplo, ADN . La secuencia de nucleótidos es un patrón que influye en la formación y el desarrollo de un organismo sin necesidad de una mente consciente. La teoría de sistemas a veces parece referirse a la información en este sentido, en el supuesto de información no implica necesariamente una mente consciente, y los patrones de circulación (debido a retroalimentación) en el sistema se puede llamar información. En otras palabras, se puede decir que la información en este sentido se percibe como algo potencialmente representación, aunque no se ha creado o presentado para ese propósito.

Cuando Marshall McLuhan habla de medios de comunicación y sus efectos en las culturas humanas, que se refiere a la estructura de artefactos que a su vez dan forma a nuestros comportamientos y modos de pensar. También, feromonas menudo se dice que son "información" en este sentido.

(Ver también Gregory Bateson.)

Información como una propiedad en la física

En 2003, JD Bekenstein afirmó que hay una tendencia creciente en la física para definir el mundo físico como puestas de información en sí misma (y por lo tanto la información se define de esta manera). La información tiene un significado bien definido en la física. Ejemplos de esto incluyen el fenómeno de la entrelazamiento cuántico, donde las partículas pueden interactuar sin hacer referencia a su separación o la velocidad de la luz. Información en sí no puede viajar más rápido que la luz, aunque la información se transmite de forma indirecta. Esto podría conducir al hecho de que todos los intentos de observar físicamente una partícula con una relación "enredada" a otro se ralentizan, a pesar de que las partículas no están conectados de ninguna otra manera que no sea por la información que llevan.

Otro vínculo se demuestra por la El demonio de Maxwell pensó experimento. En este experimento, una relación directa entre la información y otra propiedad física, entropía , se demuestra. Una consecuencia es que es imposible destruir la información sin aumentar la entropía de un sistema; en términos prácticos, esto significa a menudo la generación de calor. Por lo tanto, en el estudio de puertas lógicas, más bajo es el teórico encuadernados de la energía térmica liberada por una puerta Y es mayor que el de la puerta NO (ya que la información se destruye en una puerta y simplemente convertirse en una puerta NOT). Información física es de particular importancia en la teoría de los ordenadores cuánticos .

La información como los registros

Los registros son una forma especializada de información. Esencialmente, los registros se producen información consciente o como subproductos de actividades o transacciones comerciales y retenidos debido a su valor. Principalmente su valor es como evidencia de las actividades de la organización, sino que también puede ser retenido por su valor informativo. Sonar gestión de registros asegura que la integridad de los registros se conserva durante el tiempo que se le pide.

La norma internacional sobre gestión de registros, ISO 15489, define los registros como "la información generada, recibida, y se mantiene como evidencia y la información por una organización o persona, en cumplimiento de las obligaciones legales o en la operación de los negocios". El Comité Internacional de Archivos (ICA) Comisión de registros electrónicos define un registro como "una pieza específica de información registrada generada, recogida o recibida en la iniciación, la realización o finalización de una actividad y que comprende suficiente contenido, contexto y estructura para proporcionar prueba o evidencia de que la actividad ".

Los expedientes pueden ser retenidos debido a su valor comercial, como parte de la memoria corporativa de la organización o para cumplir con los requisitos legales, fiscales o de rendición de cuentas impuestas a la organización. Willis (2005) expresó la opinión de que una buena gestión de los registros comerciales y la información entregada "... seis requisitos fundamentales para una buena gobierno corporativo ... la transparencia; rendición de cuentas; debido proceso; cumplimiento; cumplir con los requisitos legales y de derecho común; y la seguridad de la información personal y corporativa ".

Recuperado de " http://en.wikipedia.org/w/index.php?title=Information&oldid=195614140 "