Ricardo Pérez-Amat (Universidad R. Juan Carlos I)
La información puede entenderse como aquello que reduce la incertidumbre, cualquiera que sea el origen de esta. En el ámbito de la comunicación humana, la información sólo tiene sentido si se enmarca dentro de una acción finalizada, intencional. El significado debe estudiarse desde la perspectiva empírica del uso del lenguaje.
Si se estudian los procesos de significación a través de la transmisión de los usos normales del lenguaje, vemos que se produce comunicando un conjunto de categorías prototípicas, los hechos medulares o centrales que, como hipótesis empírica, definen al significado; pero si hay unos hechos centrales para enseñar el uso normal de las palabras, también debe haber unos hechos más o menos periféricos cuyo conocimiento es necesario para comunicarse en contextos alejados de la “norma conceptual denotativa”, de modo que el significado puede representarse mediante un subconjunto difuso del conjunto partición del universo del discurso.
Esta concepción del significado se puede integrar con un modelo formal de fuente semántica. Se puede plantear una medida de la información semántica mediante el recurso a una entropía no probabilística.