Alfredo Marcos (Universidad Valladolid)

El concepto de información es central en nuestra sociedad, llamada de la información. Se defiende aquí la tesis de que la información es una relación triádica entre un evento, un receptor y un sistema de referencia. El presente trabajo propone una medida general de la información apoyada en este concepto, sugiere que dicha medida capta mejor que otras nuestra idea intuitiva de información y ayuda a integrar las diferentes nociones y medidas de la información en un marco conceptual unificado.

Artículo

Ricardo Pérez-Amat (Universidad R. Juan Carlos I)

La información puede entenderse como aquello que reduce la incertidumbre, cualquiera que sea el origen de esta. En el ámbito de la comunicación humana, la información sólo tiene sentido si se enmarca dentro de una acción finalizada, intencional. El significado debe estudiarse desde la perspectiva empírica del uso del lenguaje.

Si se estudian los procesos de significación a través de la transmisión de los usos normales del lenguaje, vemos que se produce comunicando un conjunto de categorías prototípicas, los hechos medulares o centrales que, como hipótesis empírica, definen al significado; pero si hay unos hechos centrales para enseñar el uso normal de las palabras, también debe haber unos hechos más o menos periféricos cuyo conocimiento es necesario para comunicarse en contextos alejados de la “norma conceptual denotativa”, de modo que el significado puede representarse mediante un subconjunto difuso del conjunto partición del universo del discurso.

Esta concepción del significado se puede integrar con un modelo formal de fuente semántica. Se puede plantear una medida de la información semántica  mediante el recurso a una entropía no probabilística.

Artículo