El problema no es el contenido de la comunicación, sino las formas en que se disipa y desplaza, lo que in-forma una organización socio-informacional. Al igual que los asentamientos suceden en rutas comerciales, los actantes se organizan en función de los medios masivos de comunicación.
Del sentido a la señal
La teoría de la información como campo de estudio científico nace a la par de las tecnologías de la información y la comunicación (TIC), descentrando la creencia común de progreso científico en abstracto sin usos y la posterior apropiación de conocimientos en vías a usos por el lado de la tecnología. Si bien la comunicación telegráfica se compone de tecnología muy rudimentaria (un interruptor para completar un circuito que permite a una carga viajar por las redes eléctricas hasta otro punto en donde un par de imanes cambian su potencial magnético y mueven un diafragma en una onda en forma de seno y produce sonido), hacía falta un código para combinar pulsos largos y cortos de manera que tuvieran sentido en lenguajes naturales, sobre todo a través de la traducción del alfabeto a las combinaciones de pulsos. Debido a la simplicidad de este mecanismo, la teoría de la información estaba centrada en la manera en que un mensaje es llevado de un lado al otro en un proceso de codificación (lenguaje natural a morse), un medio (cableado eléctrico) y un proceso de decodificación por parte del destinatario (morse a lenguaje natural). Sin embargo, después de la adopción del teléfono, aquello que viajaba por los cables no era el sonido, sino los cambios en potencial eléctrico resultantes de un micrófono (una bocina inversa).
Ya habiendo sido creada y adoptada la tecnología telefónica, en el periodo de la segunda guerra mundial se postuló la posibilidad de cifrar esas señales en formas que no pudieran ser entendidas a menos de que se tuviera una clave criptográfica. Esto es, la información matemática requerida para decodificar una señal (Plant 1997). De ahí en adelante, la importancia del contenido con sentido, el “mensaje”, no será parte del estudio central para los teóricos de la información (Terranova, 2022). Puesto que la información se encripta y no viaja en lenguaje natural, e incluso es inentendible para un tercero sin la capacidad de desencriptado para su interpretación, “la señal” es la que toma la centralidad para los científicos del laboratorio Bell de la AT&T, sobre todo a Claude E. Shannon, primer postulante de una tecnología de la información. Para este enfoque, lo que es importante de la comunicación no es su contenido sino su dispersión, canales y limitaciones técnicas en la práctica de comunicar. Si los soportes tecnológicos para el envío de señal son eléctricos, siempre existe la amenaza del ruido, puesto que todo cable de una longitud considerable actúa como un inductor, una antena; permitiendo la introducción de deformaciones en la in-formación.
Teniendo en cuenta este movimiento del sentido a la materialidad, el medio de transmisión de la información y la amenaza entrópica e inductiva del ruido, en lo que se centró la teoría de la información fue en el problema del envío de una señal con la menor introducción de ruido, “establecer contacto” más que comunicar un mensaje (Terranova, 2022; Mattelart, 2002; McLuhan, 1994). Dentro de las limitaciones técnicas de las telecomunicaciones del periodo entre guerras estaban las retransmisiones, pues la señal tenía que ser amplificada y retransmitida en distintos puntos para recorrer varias distancias, no obstante, la amplificación también amplifica el ruido de fondo, por lo cual eran necesarias técnicas donde se pudiera discernir la señal de ruido más allá de preservar el sentido, producir un modelo de procesamiento de las señales eléctricas para dar cuenta de su diferencia; un algoritmo. En este desligamiento entre señal y sentido es que la información se separa de la comunicación como había sido pensada en lo que McLuhan llama el “hombre literario” (McLuhan 1994, 8-9).
Estadística y control
Aquí nos encontramos con una convergencia entre los teóricos de la información, ya sea en Bell (Shannon, Nyquist, Hartley, etc.), el Proyecto Manhattan1 (John y Klara von Neumann) o el proyecto del Colossus Mark 12 (Alan Turing y Joan Murray) y los cibernetistas (Norbert Weiner, Vannevar Bush, William Ross Ashby, Gregory Bateson, etc.) estaban profundamente interesados en la mecánica estadística de Ludwig Boltzmann y James Clerk Maxwell (Land 1994, 39; Plant 1997, 156-164; Terranova 2022, 57-58). Boltzmann es quien introduce el concepto de entropía, la cual es una tendencia al caos dentro de un sistema termodinámico (analíticamente) cerrado y Maxwell introduce la incertidumbre de los microestados. Si tenemos un gas cualquiera, podemos conocer el ponderado de su temperatura x°C y esto se traduce, por la teoría cinética del calor, a que las moléculas de ese gas se muevan más o menos y colisionen entre sí. De esta manera, podemos conocer estadísticamente el estado aparente del gas a una escala de “sistema”, pero no conocer el estado de las moléculas individuales. Por ello es mecánica estadística, pues introduce lo indefinido que no podía existir en la mecánica clásica. Para los teóricos de la información, la entropía significó que la señal informacional, a través de cadenas de retransmisión y amplificación, sería subsumida por el ruido, y para los cibernetistas, significó la tendencia al caos dentro de sistemas de humanos, animales y máquinas (Wiener 1985). A los sistemas, sean informacionales o heterogéneos, había que introducir movimientos contrarios a la entropía; la neguentropía (a veces también referido como extropía). Por ende, tanto la teoría de la información como la cibernética establecerían alianzas en el intento por el control de los “sistemas sociales”, y no sería sino hasta el renacimiento de la cibernética a fines del siglo XX que se retomaría la investigación de estas tecnologías de control basadas en pensamientos no lineales sino de retroalimentación (Luhmann 2007, 166).
Ahora bien, ¿cuál es este modelo de racionalidad no-lineal que propone la teoría de la información y la cibernética? Si para la temprana modernidad el modelo de funcionamiento de los humanos y el universo era el reloj o el motor a vapor para la “sociedad industrial”, sus funcionamientos son lineales. Al darle cuerda a un reloj se le da una instrucción para subdividir el tiempo, contarlo y comunicarlo. Al motor a vapor, al encenderlo y darle combustible se le da la instrucción para generar torque y trabajo. Sin embargo, son “máquinas tontas”, esto es, que no tienen un mecanismo para reconocer sus estados pasados y actuar acorde. Tanto el reloj como el motor pueden incrementar su velocidad o funcionar hasta el desgaste y la avería, fruto de sus propias acciones, no se autorregulan. La máquina cibernética, por otro lado, es capaz de reconocer sus estados presentes y pasados y adecuarse acorde a ellos, esto se llama recursividad. Puede recurrir a sus estados en forma de retroalimentación, lo que le permite regularse y no acelerar su funcionamiento hasta su muerte. Este movimiento cíclico es lo que le permite introducir neguentropía en su sistema. Desde hornos eléctricos hasta nuestros cuerpos “biológicos” y nuestros Estados son máquinas cibernéticas, introducen control como estado de homeostasis, de “balance”. Si los estudios sociales de ciencia y tecnología llegan a la conclusión de aplanar humanos y no-humanos mediante lo que hacen y hacen hacer, la cibernética llega a ello a través de las formas en que regulan su actividad y actúan en concordancia con la contingencia del sistema, sus estados metaestables, prolongando dicha metaestabilidad.
Medios de masas
Las posteriores tecnologías de medios de masas, la radio, la televisión y el internet se fundamentan en estas teorías gestadas en el secreto del complejo industrial-militar durante la segunda guerra mundial y la guerra fría a partir de estos teóricos y las instituciones gubernamentales que ayudaron a crear: DARPA (Defense Advanced Research Projects Agency), SAC (Strategic Air Command), Office of Systems Analysis, RAND (Research ANd Development Corporation), SAGE (Semi-Automatic Ground Environment System), BMEWS (Ballistic Missile Early Warning System), etc. (Mattelart 2002, 55-62). Las telecomunicaciones, desde su origen, han sido proyectos para la homeostasis “social” y para contrarrestar otro modelo de existencia posible. Para Wiener, existen dos tipos de retroalimentación o feedback, el positivo es de oscilación convergente, en el que introduciendo dosis de neguentropía el sistema continúa bajo su misma “identidad”. En la retoalimentación negativa el movimiento oscilatorio es divergente y significa dos cosas: que el sistema muere o que se introduce un grado de neguentropía tan grande que cambia su identidad y por ende pasa a ser otro sistema, lo que llama “revolución” (McLuhan 1994; Weiner 1985).
Los medios de comunicación de masas son entonces tecnologías dispuestas para la introducción de neguentropía y de conocimiento y reconocimiento de algún grado de microestados del sistema en cuestión. El marketing, no es más que technological forecasting (o predicción tecnológica) que habían imaginado las instituciones anteriormente descritas. Esto es lo más interesante de la media theory. En contraposición a los estudios culturales y la etnometodología, obsesivas con el sentido, Marshall McLuhan dirá que “el medio es el mensaje” (1994, 7). Siguiendo a Harold Innes, su antecesor (Mattelart 2002, 72), McLuhan dará la muerte al mensaje como un medio más y lo explicará de la siguiente manera:
(…) “el medio (medium) es el mensaje” porque es el medio el que le da forma y controla la escala y la forma de la acción humana. El contenido o los usos de dicha media (media) son tan diversos como ineficientes en darle cuerpo a las formas de asociación humana. De hecho, es bastante típico como el “contenido” de un medio cualquiera no nos permite tener en cuenta el carácter del medio. (McLuhan 1994, 9)
A lo que se refiere McLuhan, como ya había descrito Innes, es la forma en que los medios de comunicación son aquellos que le dan un carácter cualitativo a las formas de relacionamiento. Para McLuhan un código es un medio, en la forma en que permite trasladar información. El lenguaje es un código y tiene unas reglas técnicas3 para el envío de información, por lo tanto es un medio de la información, que una vez se soporta en un papel (la escritura), se traduce a otro medio que le permite romper el espacio-tiempo de la comunicación cara a cara, por ello fue elemento crucial de una revolución. Una vez que las tecnologías eléctricas (telégrafo, teléfono) o electromagnéticas (radio) soportan la voz con una señal (habla), da igual si son los balbuceos de un infante o las noticias de la tarde, se ha transmitido, por un medio, una información que disloca espacio-temporalmente los flujos. No me escuchas sino que me lees, no estoy contigo ni en espacio ni en tiempo. Por ende, McLuhan propone unos círculos concéntricos de medios que transducen una información, y es la característica de cómo se dispersan esos flujos informacionales lo que da forma a la organización y los relacionamientos humanos. Puedes o no estar de acuerdo con lo acá descrito, sin embargo nos relacionamos como “generación alfabética” (Berardi 2006).
Esto lleva a Daniel Bell y compañía a hablar de una “sociedad de la información” en donde “la información es necesaria para organizar y hacer funcionar cualquier cosa” (Bell citado en Mattelart 2002, 86). Debido a la inmensa complejidad e interrelación de sistemas a escala global, nacen nuevas “tecnologías intelectuales” (Ibíd, 87), las cuales centran sus iniciativas en la organización o el management de la complejidad y más o menos organizarla (o controlarla para Weiner). Las técnicas de previsión y la matematización de los relacionamientos son fundamentales para entender esto.
Máquinas blandas, modulaciones
Máquinas blandas, soft machines o wetware conectado a hardware y software en configuraciones heterogéneas de trabajo alterizado. Hasta las grandes computadoras de la segunda guerra mundial, las centrales de cómputo eran grandes recintos repletos de mujeres computando partes descontextualizadas de programas en serie para todo tipo de aplicaciones (contabilidad, cálculo de aterrizajes de misiles, censos, etc.), para corroborar que el programa entero se mantuviera en secreto. Las mujeres podían no conocer el sentido de los programas, o saber su aplicación, sin embargo eran los pequeños transistores de las máquinas de computo a base de wetware. Incluso durante la segunda guerra, programas como el Women’s Army Corps y el proyecto WAVES (Women Appointed for Voluntary Emergency Service) eran quienes calculaban las tablas de disparo (firing tables), las cuales estimaban los grados de elevación, el rango, la carga, el clima, etc. para cerciorarse de que los misiles llegaran a su destino (Plant 1997, 145). En este texto, a propósito de la gran cantidad desempaquetada sobre el complejo industrial-militar, sus tecnologías y sus usos en los medios de comunicación de masas, propongo el concepto de trabajo alterizado. Este concepto, habla de automatización, pero si bien la automatización es supuestamente una delegación de trabajo humano a una máquina, es mucho más que eso, es la delegación a un cuerpo Otro que permite a los “agentes humanos” que actúan por racionalidad en arreglos a fines o valores, aquellos que estudia la sociología, el resto es estudiado por la tecnología, si parece perenne, de lo contrario es escondido en la figura heroica de ingeniero, científico, diseñador, comandante, manager…
Cada día son más las historias de trabajo humano alterizado prestado a las Inteligencias Artificiales en lo que suele llamarse “la anatomía de la IA”. En el 2023, OpenAI empresa que creó y administra ChatGPT pagó a trabajadores de Kenya una cifra de menos de $US 2 la hora para que catalogaran contenido “toxico” encontrado a lo largo y ancho del Internet, y así “entrenar” a GPT para depurarle respuestas inapropiadas o que contuvieran material explícito o ilegal (Perrigo 2023). Si bien un LLM (gran modelo de lenguaje por sus siglas en inglés) pretende ser un programa que debe desempeñarse en ML (machine learning) supervisado, no se habla mucho de la cantidad de trabajo humano que hace falta para que la supuesta IA suene inteligente. Más allá de los grandes modelos estocásticos que analizan el lado informacional y no semántico del lenguaje, mucho trabajo humano alterizado se necesita para hacer crecer a una de las industrias con más acelerado ascenso de nuestra década. Los Otros han sido puestos no del lado de la “sociedad” sino de la tecnología. Los animales sacrificados por las industrias farmacéutica y cosmética, la gran cantidad de horas de trabajo humano en curar respuestas apropiadas que parecen tener sentido, la cantidad de mujeres computadoras tras bastidores en la segunda guerra mundial. La primera “tecnificación del campo” se llama esclavitud.
No obstante, en los estudios sociales de la ciencia y la tecnología hay un interés particular por aplanar ontológicamente las hibridaciones que ya se dan todos los días en los infinitos relacionamientos que hacen (enact) el mundo. Ponerse del lado de las cosas, sin las cuales no podemos explicar nada “social”. En esto estoy de acuerdo, sin embargo, debemos tener siempre muy presente la tenue diferencia que existe entre una parsimonia analítica y el análisis como espejo de la realidad. Todos los objetos de estudio de las ciencias (naturales, sociales, básicas, biomédicas) viven cruzando las fronteras disciplinarias que hemos creado por parsimonia analítica y se han vuelto “segundas naturalezas” como contexto de la práctica científica, las fronteras son porosas y las purificaciones son analíticas.
Boltzmann y Maxwell tenían muy presente la imposibilidad de un “sistema cerrado”, sin embargo se vuelve rápidamente caótico la revisión de la entropía teniendo en cuenta sistemas aledaños que actúan sobre el sistema que se estudia. Los cibernetistas sabían lo mismo: “el afuera siempre se introduce (the outside always seeps in.)” (Plant 1997, 160). Si como hemos visto en el capítulo anterior y como nos dice Haraway en el Manifiesto para cyborgs, los conceptos son casi-cosas que ponen casi-realidades a operar, estos vuelven como sentido y horizonte manifiesto, prescripciones de mundo y normativas analíticas, fetichizadas como expresa Suchman (2012, 49-50). El intento es hacer un estudio social de la ciencia y la tecnología social y hacer uso de las herramientas analíticas que han historizado y relativizado la ciencia como una práctica local que da explicaciones de mundo, a la misma ciencia social. Para ello haremos uso de una terminología foucoultiana, el de líneas de hecho y líneas de segmentariedad. Concedo que el ejercicio de la Teoría Actor-Red y los estudios sociales de ciencia y tecnología posteriores utilizaron el aplanamiento ontológico como una gran herramienta analítica que moviliza explicaciones sobre el funcionamiento del mundo teniendo en cuenta actantes no-humanos, sin embargo, veremos como las mismas asociaciones de lo que se escapa de las cuentas de las ciencias sociales es en general, la alterización o invisibilización de poder actuar y llevar a la acción (o enactuar) como propiedad emergente de las redes heterogéneas.
Aun cuando se ha intentado llevar los estudios sociales de la ciencia y la tecnología a la idea de una composición política, sobre todo explícitamente en el compilado de John Law A Sociology of Monsters y más recientemente, la política ontológica del mismo Law en compañía de Annemarie Mol, queda corto el ejercicio analítico en la medida en que todos los actantes hacen y llevan a hacer, de forma relacional, un mundo. Sin embargo, dicha composición de las realidades locales siempre en gestación y mantenimiento no tiene suficientemente en cuenta cómo se estratifican esas realidades.
Hay un enorme ejercicio que pienso retomar de manera central en el Interludio: Notas sobre Presencia y ausencia en Después del método, en donde Law retoma de manera implícita el programa de investigación de la metafísica de la ausencia de Derrida en Espectros de Marx. Este programa de investigación planea dar cuenta de aquello que no aparece, en contraposición a estudiar sólo lo aparente en todas las acepciones del término. De esta manera, Law llega a la conclusión de que toda relación se compone de unas ausencias manifiestas y de alterizaciones (Law 2020, 142-146). La primera es aquello que se delinea siempre sólo como contexto, aquello que es periférico y tangencialmente opera sobre la red que sólo analíticamente delimitamos, es la manera en que tenemos en cuenta como el afuera ingresa. Y por el otro lado, lo alterizado es aquello que es invisible y opera como fuerza, sin que se le considere como un “objeto” de análisis, pues actúa como fuerza pre-individuada4. En uno de los ejemplos que cita Law inmediatamente después del interludio, habla de la hepatopatía alcohólica (la enfermedad de hígado por causa del alcohol)5 y como diferentes especialistas delinean redes muy diferentes de contexto de la hepatopatía. Esto en primer lugar, constituye a la hepatopatía como un “objeto” de múltiples formas de delimitación, que pueden traslaparse pero también muy seguido entrar en contradicción, sobre todo en lo que se refiere a las causas del objeto fragmentario (la hepatopatía alcohólica). Teniendo esto en cuenta, el hepatólogo traerá como contexto la predisposición genética para desarrollar lesiones en el hígado, la historia familiar y probablemente el contexto social (relaciones amistosas, amorosas, familiares con personas con consumos problemáticos) y prescribirá la abstinencia para que el hígado pueda recuperarse en la medida de lo posible. El trabajador social, por el otro lado, prefiere poner en primer plano el contexto “mental” y social de quien padece de hepatopatía alcohólica y la prescipción será el cambio de relacionamiento con el alcohol, la disminución de ingesta y la gestión del consumo problemático, dado que en su contexto tiene en cuenta que fuera de su clínica de rehabilitación, la mayoría de pacientes que entran en abstinencia de alcohol y salen de la institución que les modula espacio-temporalmente, una serie de consumos más problemáticos en términos de legalidad, salud, bienestar, etc.: drogas “duras”, y trae a colación investigaciones sobre exalcohólicos que posteriormente presentan problemas de drogadicción. La abstinencia los sustrae de sus círculos y prácticas “sociales”, por lo cual hacen un reemplazo de consumos problemáticos (Law 2020, 147-150). Para el médico, una vez el exalcohólico vuelve a ingresar al sistema de salud, ya no será un paciente de hepatopatía alcohólica, sino uno de drogadicción, con impactos biológicos diferenciales, siendo así un “objeto nuevo”. Ambas construcciones de la hepatopatía tienen contextos que se traslapan pero que también alterizan otros factores. Al trabajador social poco le importan las enzimas hepáticas, al hepatólogo poco le importa lo que no afecte el funcionamiento de su hígado.
Pero, si tenemos en cuenta que acotar el mundo es parsimonia analítica, entonces podemos bien construir objetos fragmentarios en amplio diálogo con una multiplicidad de otros objetos fragmentarios y dar cuenta de la complejidad más allá que en prescripciones normativas de realidad, a lo que usualmente llegan las ciencias sociales. Pero ¿qué tiene que ver esto con las nuevas configuraciones informacionales y telemáticas que venía describiendo? Que las ciencias sociales clásicas no las entienden sino como un “espejo” virtual de las relaciones en el espacio del siglo XVIII, el Estado, la identidad, el espacio-tiempo sincronizado y, sobre todo, el sentido. El ambiente (milieu) informacional es caótico y carece de sentido para establecer asociaciones, por ello es que la ciencia puede vincular un virus con la movilidad humana, sin intentos de purificación o de expulsión del Covid-19 del campo social por no tener acciones con arreglos de sentido, “socializaciones” o “clase”, e incluso no ser ciudadano registrado de ningún Estado. Tenemos entonces un choque de movimientos complementarios entre el flujo de información a-semiótica y la segmentarización del mundo en arreglo a sentidos. El flujo informacional vírico des-estabiliza las purificaciones y los segmentos aparentemente disgregados, mientras que los aparatos de inscripción que dividen los dominios de la realidad estabiliza el sentido y lo existente de manera ontológica, sobre aquello que existe y puede enactuar realidades, congelándolo, funcionando tanto como estándar e infraestructura (Bowker y Star, 1999). En los flujos informacionales y el movimiento de desestabilización no hay mucho valor analítico, pues la complejidad es inaprehensible en términos humanos y obsoletos. Por el contrario, la estabilización permite la parsimonia analítica en pérdida de alteridades y objetos efímeros, elusivos o de acelerado cambio.
Las tecnologías y los discursos científicos pueden ser entendidos como formalizaciones, por ejemplo, momentos congelados de las fluidas interacciones sociales que las constituyen, pero también deben ser vistas como instrumentos para reforzar sentidos. La frontera es permeable entre herramienta y mito, instrumento y concepto, sistemas históricos de relaciones sociales y anatomías históricas de cuerpos posibles, incluyendo los objetos del conocimiento. De hecho, mito y herramienta se constituyen mutuamente. (Haraway 2016, 33)
Consideremos otro momento azaroso de las tecnologías sociales, la invención de lo “social” en Colombia. Según nos muestran Javier Sáenz Obregón y Carlos Mauricio Granada, la invención y el delineado de qué constituye lo “social” era de suma importancia para la homogeneización y gobernabilidad de los pueblos bajo el Estado colombiano, el intento por establecer y estabilizar una “identidad nacional”, según los autores, unas formas deseables de actuar y relacionarse con otros y con las instituciones de normalización. A partir de la gestión de los “conductores de lo social” (vemos cercanía entre Sáenz, Granada y los cibernetistas) se establecieron unas líneas de hecho como instituciones. Los autores nombran 5: la familia, la escuela, la fábrica, la cárcel y el psiquiátrico. Estas instituciones regulan espaciotemporalmente los procesos de subjetivación de quienes atraviesan estos espacio-tiempos modernos, moldeando las formas y prácticas sociales deseables para un modelo de relacionamiento acorde al de los “conductores de lo social” (Sáenz y Granada 2013). Este paso por instituciones modernas tenía que adecuarse al contexto colombiano, pues vemos la similitud entre Sáenz, Granada y Foucault. Para este ejercicio de emplazamiento las políticas institucionales se centran en adecuar a “los pobres” a las instituciones europeas a través de la gestión cercana de sus vidas, sus conductas y sus costumbres, para formar y moldear estas formas de socialización deseables. Esto es a la par una estabilización de los discursos sociales europeos después estabilizados como ciencias sociales en Colombia, cada una con sus objetos fragmentarios6 (Mol, 2002) disciplinarios, y además, la instauración de modelos disciplinarios de gestión de la vida a través del discurso individualista de la economía liberal a la par del poder pastoral de escrutinio de las almas; sus pensamientos y deseos (Ibíd.). Estas instituciones sobrecodifican a las personas que pasan por ellas y las dotan de una función específica dentro de la tecnología social, este proceso de gestión vuelve una línea de hecho: la familia, en una línea de segmentariedad: la madre proveedora de la familia, quien ejerce todo el cuidado y la “socialización primaria” además de prevenir a su marido buscar los vícios de la calle (Sáenz y Granada 2013, 237).
Estas formas de segmentariedad o estratificación de “lo social” que resultan en lo que Latour llama “purificaciones” (Latour, 1993) y acá llamamos “parsimonia analítica” como una forma de introducir estándares aparentemente universales y ubicuos dentro de una infraestructura que funciona como segunda naturaleza para sus actantes (Bowker y Star, 1999), separando públicos de científicos, cultura de naturaleza, diseñadores de usuarios, etc. Estos emplazamientos locales de una infraestructura aparentemente global, como vimos con Sáenz, corresponden a “ensamblajes tropicales” (Palmarola y Alonso 2014) de una organización predeterminada que informa las capacidades agenciales de los actantes, inscribiéndolos dentro de unas tecnologías sociales que son invisibilizadas, pues no se exponen como sentido sino como un “medio”, de la misma forma en que los medios de comunicación co-configuran “lo social” como campo de acción posible. Estas configuraciones como eliminación de “alterontologías” (Papadopoulus 2018) y despeje de otras formas de conformar infraestructuras posibles, lo que Law denomina contexto. El control se constituye a través de este régimen de gobierno tecnocientífico blando, invisible y soportado por las TIC que logran capturar información en tiempo real, ejerciendo neguentropía sobre los microestados de “lo social”.
Proyecto secreto del gobierno estadounidense del que se conoce mucho en términos de física teórica, sin embargo también estuvo centrado en la información, la encriptación de información y la utilización de cómputo humano y no-humano (computadoras mujeres y máquinas computacionales).
Proyecto secreto del Reino Unido dispuesto a desencriptar e interpretar los mensajes alemanes encriptados por la Máquina Enigma durante la segunda guerra mundial.
Es por esto que los grandes modelos de lenguaje (LLM por sus siglas en inglés) como Gemini o ChatGPT utilizan modelos estocásticos para medir la probabilidad de que una letra o una palabra siga subsecuentemente a otra y parezca tener sentido aun cuando la máquina no tenga “pensamiento simbólico”.
Esto quiere decir que no se delimita como un objeto único, individual, sino como abstracción, si es que se lo tiene en cuenta.
Este ejemplo es tomado de Law, John y Singleton, Vicky. 2005. Object Lessons. Organizations, 12(3). https://doi.org/10.1177/135050840505127
Annemarie Mol, al igual que Lucy Suchman y Madeleine Akrich, no heredan “objetos” de estudio como cuerpos delimitados por una frontera clara que existen “allá afuera” previos a su recomposición conceptual y analítica, por lo cual distintas formas de recomposición conceptual describen ontológicamente objetos en apariencia iguales pero no los mismos. Véase Akrich, Madeleine (1992) "The De-Scription of Technical Object". En: Wiebe E. Bijker y John Law (eds.) Shaping Technology/ Building Society: Studies in Sociotechnical Change. Cambridge-London: The MIT Press, pp. 205-224.
Bibliografía
Bowker, G., & Star, S.L. (1999). Sorting Things Out: Classification and its Consequences. Cambridge: The MIT Press,
Haraway, Donna J. 2016. “A Cyborg Manifesto.” In Manifestly Haraway, 3–90. Minnesota: University of Minnesota Press. https://doi.org/10.5749/minnesota/9780816650477.003.0001.
Latour, Bruno (1993). We have never been modern. Cambridge, MA: Harvard Uni- versity Press.
Law, John. 2020. Después del método. Desorden en la investigación en ciencias sociales. Popayán: Universidad del Cauca.
Luhmann, Niklas. 2007. La realidad de los medios de masas. México: Anthropos; Universidad Iberoamericana.
Mattelart, Armand. 2002. Historia de la sociedad de la información. Buenos Aires: Ediciones Paidós.
McLuhan, Marshall. 1994. Understanfing Media: The Extensions of Man. Cambridge: MIT Press.
Mol, Anamarie (2002) The Body Multiple: Ontology in Medical Practice. Durham, NC: Duke University Press.
Papadopoulus, Dimitris (2018) Experimental practice: technoscience, alterontologies, and more-than-social movements. Durham: Duke University Press.
Palmarola, Hugo y Pedro Ignacio Alonso (2014) “Tropical Assemblage: The Soviet Large Panel in Cuba”. In: Eden Medina, Ivan da Costa. Marques, Christina Holmes (eds.), Beyond Imported Magic: Essays on Science, Technology, and Society in Latin America. Cambridge, MA: MIT Press, pp. 159-179.
Perrigo, Billy. 2023. "Exclusive: The $2 Per Hour Workers Who Made ChatGPT Safer". TIME, 18 de enero de 2023, time.com/6247678/openai-chatgpt-kenya-workers. Accedido el 22 de abril de 2024.
Plant, Sadie. 1997. Zeros + Ones. London: Fourth Estate Limited.
Sáenz Obregón, Javier, and Carlos Mauricio Granada. 2013. “El Dispositivo de Lo Social Como Gobierno de Los Pobres.” En Proyecto Ensamblado En Colombia. Tomo 1: Ensamblando Estados, editado por Olga Restrepo Forero, 219–53. Bogotá: Universidad Nacional de Colombia. Centro de Estudios Sociales-CES.
Suchman, Lucy A. 2012. “Configuration.” In Inventive Methods: The Happening of the Social, edited by Celia Lury and Nina Wakeford, 48–60. London: Routledge.
Terranova, Tiziana. 2022. Cultura de la red. Información, política y trabajo Libre. Buenos Aires: Tinta Limón Ediciones.
Wiener, Norbert. 1985. Cibernética o el control y comunicación en animales y máquinas. Barcelona: Tusquets Editores.