Editor:  José María Díaz Nafría (Universidad de León, España)

Contribuciones incorporadas al Glosarium BITriJosé María Díaz Nafría (jul.2009)

(In. sign, Fr. signe, Al. Zeichen) El uso frecuentemente dado en la antigüedad al signo, σημεον, corresponde con el de una señal, normalmente verbal, por medio de la cual se representa algo (se usó, no obstante, en sentidos más técnicos y a veces confrontados, como en las tendencias realista y nominalista, que resurgirán en los usos modernos). En la modernidad, especialmente entre racionalistas, el signo tiende a referirse a ideas. No obstante, en la corriente empirista, el signo adquiere una notable relevancia y en él se distingue su dimensión sugestiva –ya apuntada en la antigüedad y en el nominalismo medieval-. En cualquier caso, las tendencias más influyentes en la actualidad son quizá las iniciadas por SaussurePeirceHusserl, habiendo influido los dos primeros de forma más destacada sobre la lingüística, la semiótica y la antropología y el tercero a través de la fenomenología y la hermenéutica en un amplio espectro de las ciencias sociales.

Para Saussure el signo (visto desde el punto de vista de la lingüística) es una “entidad psíquica” con dos facetas inseparables: la imagen acústica (que llama “significante”) y el concepto (“significado”), siendo arbitrario su lazo de unión. Las concepciones estructuralistas extendieron el sentido saussuriano de signo a los fenómenos no verbales.

(más…)

Anuncio publicitario

Alfredo Marcos (Universidad Valladolid)

El concepto de información es central en nuestra sociedad, llamada de la información. Se defiende aquí la tesis de que la información es una relación triádica entre un evento, un receptor y un sistema de referencia. El presente trabajo propone una medida general de la información apoyada en este concepto, sugiere que dicha medida capta mejor que otras nuestra idea intuitiva de información y ayuda a integrar las diferentes nociones y medidas de la información en un marco conceptual unificado.

Artículo

Ricardo Pérez-Amat (Universidad R. Juan Carlos I)

La información puede entenderse como aquello que reduce la incertidumbre, cualquiera que sea el origen de esta. En el ámbito de la comunicación humana, la información sólo tiene sentido si se enmarca dentro de una acción finalizada, intencional. El significado debe estudiarse desde la perspectiva empírica del uso del lenguaje.

Si se estudian los procesos de significación a través de la transmisión de los usos normales del lenguaje, vemos que se produce comunicando un conjunto de categorías prototípicas, los hechos medulares o centrales que, como hipótesis empírica, definen al significado; pero si hay unos hechos centrales para enseñar el uso normal de las palabras, también debe haber unos hechos más o menos periféricos cuyo conocimiento es necesario para comunicarse en contextos alejados de la “norma conceptual denotativa”, de modo que el significado puede representarse mediante un subconjunto difuso del conjunto partición del universo del discurso.

Esta concepción del significado se puede integrar con un modelo formal de fuente semántica. Se puede plantear una medida de la información semántica  mediante el recurso a una entropía no probabilística.

Artículo