Jump to content

Search the Community

Showing results for tags 'tecnología'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Staff
  • Main forums
    • Current debate
    • The pending Spain
    • Memory of the Spains
    • Spanish coffee
    • Information and support
  • Corazón Montañés's Temas nuevos
  • English-speaking community's English-speaking forum
  • Coração Brasileiro e Luso's · Fórum do Brasil e a Lusofonia
  • Corazón Mexicano's · Foro de México
  • Corazón Puertorriqueño's Foro de Puerto Rico
  • Corazón Argentino's · Foro de Argentina
  • Fuero de las Alemanias.'s Foro Hispano-Alemán
  • Corazón Católico's Foro Católico
  • Mundo Republiqueto's Foro de la comunidad MR
  • Corazón Peruano's Foro del Perú

Categories

  • Opinión
  • España
  • Hispanoamérica
  • Internacional
  • Historia y patrimonio
  • Política
  • Religión e Iglesia
  • Geopolítica y estrategia
  • Pensamiento y filosofía
  • Ciencia y tecnología
  • Naturaleza y medioambiente
  • Artes y cultura
  • Web information

Blogs

There are no results to display.

There are no results to display.

Categories

  • Spanishness and contemporary world
    • News and contemporary world
    • The future of the Spanishness
    • Memory of the Spanishness
  • Talk and entertainment
    • Art and culture
    • Science and Technology
    • Faith and religion
    • Education and formation
    • Thought and philosophy
    • Nature and environment
    • Travel and tourism
    • Music and movies
    • Sports and shows
    • Data and curiosities
  • Fuero de las Alemanias.'s Videos
  • Corazón Católico's Videos

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Found 7 results

  1. Este tema le va a gustar a don Fernandito por aquello de darle un cariz de "futuro" al tradicionalismo hispanista y no estar todo el rato añorando el pasado. Vamos allá. La tesis es la siguiente: el maquinismo, la automatización, la robótica curiosamente tienen asociada una paradoja y es que puede que lleven a un orden social de carácter más tradicional. Pongo ejemplos: -El teletrabajo informático permite el poblamiento del rural, abandonando las Ciudades-monstruo de la modernidad. -La traducción automática permite la pluralidad de lenguas, abandonando el sistema de identidad monolingüe de los Estados-nación moderno. -La conducción automática permite la eficiencia en el uso de los automóviles y puede llevar a las ciudades sin coches, sin aparcamientos, dedicando espacios a lo humano y no a las máquinas. Es decir, precisamente las Máquinas pueden ser aliadas de la Tradición porque tienen la capacidad de cargar todo el "sufrimiento de la Modernidad" mientras que los hombres permanecen en espacios y estructuras más humanos. Las Máquinas son más "modernas" de lo que pueda ser un ser humano jamás. Esto se ve en el mundo militar: una nube de drones es más poderosa que un ejército de levas masivas, tan característico de los Estados-nación modernos del siglo XIX y XX, así que las guerras de masas acaban siendo guerras de robots. Es imperativo, pues desde el tradicionalismo establecer una Teoría de las Máquinas que organice todo esto y lo potencie que digo en la consecución de un mundo más humano, y por tanto más cristiano. Espero vuestros comentarios.
  2. La televisión está mal vista y con razón. Cuando en España sólo existían dos canales estatales, todavía se podían encontrar programas de cierta calidad, que no buscaban darle al público lo que quería, o lo que halagaba sus bajos instintos, sino lo que se consideraba un contenido de calidad. Con la llegada de las cadenas privadas la cosa fue degenerando hasta la televisión perfectamente prescindible que conocemos hoy. La televisión es ideal para manipular y para transformar la sociedad, generalmente a peor. La imagen ofrece un mayor potencial de manipulación que los textos escritos o hablados. Siempre ha sido el vehículo ideal de la propaganda porque apela al aspecto más irracional del ser humano. Al leer un texto todavía conservas cierta capacidad crítica y de reflexión, pero la imagen va directa al corazón, a los estratos inferiores del cerebro, y te golpea sin dejarte tiempo para reflexionar. La imagen en movimiento tiene todavía mayor capacidad para sugestionar a las masas y para transformar nuestras creencias y costumbres. Muchas personas están muy contentas de haber dejado atrás la nefasta televisión gracias a internet, donde supuestamente eligen lo que quieren ver. ¿Pero acaso Youtube no sigue siendo televisión? Sí, Youtube también es televisión, es decir, imágenes trasmitidas a distancia. La tele convencional del pasado se transmitía por ondas o por cables; la tele de hoy se trasmite por fibra óptica. El núcleo del asunto sigue siendo el mismo. Los vicios que tenía la televisión de antaño, en cuanto a su potencial para engañar, manipular y transformar hábitos y costumbres, los hereda igualmente Youtube. Ahora bien, yo sostengo que Youtube no sólo hereda esos vicios de la televisión convencional de antaño sino que los potencia en grado sumo y los dota de una capacidad destructiva global que era inimaginable en un pasado. Ilustro el tema con breve artículo de hace tiempo que explica qué tipo de vídeos recomienda Yotutube y por qué los contenidos singularmente tóxicos son inherentes a este nuevo tipo de televisión: Como las palabras sin hechos no sirven de nada, Chaslot, tras abandonar su puesto en Google, creó la página AlgoTransparency, con el objetivo de informar sobre las recomendaciones de YouTube de una forma más clara. El ejemplo en el que más se centra, es en la forma de recomendar que propuso YouTube tras las noticias sobre la publicación del informe Mueller, en el que se proporcionaba información sobre las relaciones entre Rusia y Estados Unidos durante la campaña de Donald Trump en 2016. Más de 236 canales de YouTube empezaron a recomendar un vídeo subvencionado por el propio gobierno ruso, algo que, según Chaslot no termina de entenderse, viendo las pocas reproducciones que tenía el vídeo, y cómo canales mucho más grandes y con más visitas tenían vídeos sobre esta misma temática. Según la propia Google, en palabras para The Next Web, las afirmaciones de Chaslot sobre que YouTube se centra en mostrar contenido límite no son ciertas, afirmando que el algoritmo se basan en los likes, dislikes, veces que se comparte el vídeo, y autoridad del propio canal. "Como con la mayoría de las afirmaciones hechas por AlgoTransparency, no hemos podido reproducir los resultados. Hemos diseñado nuestros sistemas para garantizar que el contenido de fuentes más autorizadas aparezca de manera prominente en los resultados de búsqueda y vea las siguientes recomendaciones en ciertos contextos, incluso cuando un espectador está viendo contenido relacionado con noticias en YouTube". Un algoritmo que no se libra de polémicas Independientemente del grado de razón que lleve o no el antiguo trabajador de Google, el algoritmo de YouTube parece no librarse de polémicas. Como nos hicimos eco hace un tiempo, en el listado de Tendencias de YouTube no era difícil encontrar contenido clickbait y cuestionable en cuanto a su calidad, como los ejemplos que mostramos a continuación. VUELVO A LA MANSIÓN Y ME DAN UN REGALO SORPRESA [Dualcoc] ME VOY DE CASA Y ME DESPIDO DE MI NOVIA.. BROMA TELEFÓNICA A NUESTRO JEFE | Ft. Joaquin PA FRASES DE REGGAETON EN LA VIDA REAL 2 | Celopan PANCAKE "ART" CHALLENGE - CLASH ROYALE Creamos el CAFE mas GRANDE del mundo en la BAÑERA y nos METEMOS DENTRO !! ADIVINAS SU EDAD??? � 100% IMPOSIBLE En febrero de este mismo año, YouTube hizo cambios profundos en la plataforma, admitiendo que los usuarios se estaban quejando por el contenido "basura", la búsqueda del click fácil, y los títulos y las descripciones engañosas. En este mismo momento, el propio Charlot consideraba este cambio toda una victoria, y es que la plataforma prometía dejar de recomendar vídeos tan polémicos como aquellos dedicados a explicar que la Tierra es plana. "Ejemplo de este círculo vicioso: hace dos años descubrí que la IA promovía muchas informaciones conspiranoicas en mayor proporción que las verdaderas. Por ejemplo, los vídeos de la Tierra Plana se promovían en torno a diez veces más que los de la Tierra redonda". El trabajador de Google, tiempo atrás, había descubierto que se recomendaban más vídeos sobre terraplanismo que sobre aquellos que contaban la verdad, y que se generaban más visitas, más anuncios y más dinero fomentando las visualizaciones de los primeros. Del mismo modo, han caído sobre YouTube fuertes críticas por haber servido a una red de pedófilos para comunicarse a través de la plataforma, a través de vídeos de niñas de 10 años probándose bikinis, estirándose o jugando. Vídeos con miles de reproducciones que la plataforma recomendaba a estos usuarios, y que hizo que grandes compañías como Nestlé o Epic Games retirasen campañas publicitarias en YouTube y Google. https://www.genbeta.com/actualidad/recomendaciones-youtube-toxicas-ex-trabajador-google-cuestiona-como-funciona-algoritmo-youtube El artículo menciona varios tipos de contenido tóxico que premia el algoritmo de Youtube: a) Vídeos sobre conspiraciones imaginarias, cuanto más absurdas, mejor. b) Con frecuencia ligado a lo anterior, vídeos sobre el mundo del misterio y sobre la habitual panoplia de temáticas gnósticas y ocultistas, alrededor de las cuales se forman verdaderas sectas. c) Contenido extremista, o incluso terrorista, en el plano político y religioso. Cuanto más divida, cuanto más enfrente, cuanto más promueva el odio, mejor para Youtube. d) Contenido basura, engañoso o que busca clicks fáciles; el tipo de contenido en el que no debería perder un segundo ninguna persona razonable. e) Propaganda radicalmente manipuladora de las grandes potencias, aunque parece que Rusia es la que se maneja con más habilidad en este ámbito digital. f) Todo tipo de contenido estúpido y, sobre todo, extremo (incluso pedofilia si se tercia), porque es el que más captura la atención de la gente y, por tanto, el que más ingresos les genera a los pérfidos dueños de Youtube. Se están haciendo billonarios a base de bombear basura, odio y división en la sociedad. Intoxican nuestras mentes e intoxican nuestras sociedades. Es su modelo de negocio. No toco el tema de otras plataformas gratuitas de televisión en internet, como las dedicadas específicamente a la pornografía (cuanto más extrema y degenerada, mejor), a asesinatos reales (al final, el mito de las películas snuff se hizo realidad sin que nos diéramos cuenta), a la promoción del terrorismo y a lo más abyecto que uno pueda imaginar. No niego que en Youtube haya contenidos decentes, positivos o útiles. Pero el sistema está concebido y programado para favorecer el tipo de contenidos extremos o estúpidos que acabo de relatar, con lo que impulsa a la sociedad a la estupidez, a la locura, al enfrentamiento y a su propia autodestrucción. A lo mejor una persona empieza haciendo vídeos decentes sobre cuestiones históricas, pero si ve que le reportan muchas más visitas (y, por tanto, beneficios) los vídeos sobre conspiraciones, terminará haciendo ese tipo de vídeos. Quizá alguien empiece hablando sobre cuestiones políticas con gran sabiduría y respeto, pero si ve que gana mucho más dinero insultando a sus oponentes políticos y crispando el ambiente, se inclinará por esa vía. El sistema tiende al mal. Además, con Youtube se ha dado carta de naturaleza a toda clase de propagandistas de las causas más turbias, ya procedan de sectas, de grupos de presión o de grandes potencias que tienen los recursos necesarios para lavar el cerebro a grandes sectores de la población. Y ya no es como antes, que poníamos un par de horas la tele en el cuarto de estar por las noches; ahora la tele nos acompaña a todas partes con nuestro smartphone, con lo que estamos las veinticuatro horas a merced de la propaganda en forma de vídeos e imágenes que quieran bombear en nuestras cabezas. No hay escapatoria. La tele convencional la podías apagar. Internet no lo puedes apagar. Solamente ese detalle debería hacernos reflexionar. Mi conclusión es que Youtube es un tipo de televisión mucho más destructiva para la sociedad que la televisión convencional de antaño. No hay degeneración que no esté recogida en Youtube, mientras que en la tele convencional el catálogo de degeneraciones está mucho más acotado. El mejor contenido de la televisión convencional siempre será superior al mejor contenido producido exclusivamente para Youtube. El peor contenido de la tele convencional siempre será infinitamente superior al peor contenido producido para Youtube. Y es probable que los peores contenidos de la tele convencional superen en calidad a los vídeos más vistos de Youtube. Lo poco que alberga de valor Youtube generalmente lo ha robado de la televisión convencional, donde hay unos profesionales que cobran su salario al margen de los clicks que reciban. La manipulación de la tele convencional se queda chiquita al lado de la manipulación de las almas que es posible ejercer a través de Youtube. La mentira y el odio reinan en Youtube en mucha mayor medida que en la televisión convencional. En la tele convencional era posible escuchar el consejo de que apagases la tele e hicieses algo más enriquecedor. En Youtube no encontrarás nunca el consejo de que apagues internet (porque, de hecho, no se puede) y mandes al guano a Youtube. La caja tonta, como la llamaban nuestros profesores de EGB, nunca ha sido más tonta que con Youtube. La nueva televisión de Youtube es una receta segura para la degeneración, el enfrentamiento y el caos dentro de nuestras sociedades. Es posible que alguien tenga una visión muy diferente del tema: para eso estamos, para debatir amigablemente :)
  3. Comparto una entrevista sobre el tema de la Inteligencia Artificial que aclara algunas cuestiones menos conocidas de su funcionamiento. No requiere conocimientos técnicos para entenderlo y creo que es de interés general. He subrayado algunos pasajes. XL. Moderadores de contenido… M.L.G. Son una multitud de personas que lo analizan y contextualizan. «Ah, esta es una frase que dijo un político». «Esto es discurso político, no de odio». No hay manera de automatizar eso en tiempo real. Un software no puede descifrar la frase porque nunca se ha dicho antes, no tiene datos para decidir si debe quedarse on-line o eliminarla. Esto pasa con todo el contenido que generamos. XL. Estos moderadores están sometidos a imágenes violentas, contenido sexual… M.L.G. Pero mucha de la gente a la que entrevistamos se sentía muy satisfecha por su trabajo. Toman decisiones importantes. Una de las primeras mujeres que conocí en la India al estudiar el trabajo fantasma se dedicaba a esto. Desde su punto de vista, limpiaba Internet para sus hijos. Y para todos nosotros. XL. Detectó el problema en Microsoft. Los ingenieros recurrían a una gran cantidad de trabajadores sin saber quiénes eran o cómo trabajaban. M.L.G. Muchos negocios que usan este modelo tienen poca idea de las condiciones de trabajo que ofrecen los contratistas con quienes trabajan. Y más si contratan a distancia. Los ingenieros de Microsoft nunca habían pensado en ello. Y eso pasa cada vez que contratas un servicio de entrega. XL. ¿Cuántos son exactamente? M.L.G. No lo sabemos. No tenemos cómo contarlos. La única manera de hacer un recuento de trabajadores hasta ahora ha sido ir a una fábrica o una oficina y contarlos. Esto hay que replanteárselo: cómo saber quién hace el trabajo es uno de los mayores retos. XL. ¿Una cifra aproximada? M.L.G. Cualquiera que te dé una cifra exacta miente, pero un estudio de 2016 estimaba que, en Estados Unidos y Europa, en torno a 25 millones de personas habían realizado algún trabajo on-line, aceptando tareas ligadas a proyectos asignadas a través de plataformas. Según nuestra información, es habitual que las compañías cuenten con un núcleo duro de diez mil personas que hacen este trabajo para ellas con regularidad. XL. Entiendo que esta cifra será mucho mayor en grandes tecnológicas como Microsoft, Apple, Facebook… M.L.G. ¡En ese caso hablamos de millones! Y son las responsables de explicarnos por qué contratan a gente para ayudar a la inteligencia artificial y bajo qué condiciones. Nos encontramos en el comienzo de este debate. Nos estamos habituando a pedir que nos expliquen a quién le han vendido nuestros datos, pero tendríamos que saber también quién trabaja con ellos y bajo qué condiciones. “Ninguna de estas plataformas puede operar si no tiene esas miles de personas fantasma disponibles en todo momento del día y de la noche” XL. Siendo un trabajo on-line que deja huella, ¿no debería ser más fácil establecer una cifra precisa? M.L.G. Resulta irónico, ¿verdad? Pero es difícil evaluarlo, porque rompe los esquemas habituales. El trabajador puede estar unas horas al mes, unas horas a la semana o a jornada completa. Todos ellos son igualmente importantes porque forman parte de la abundancia de mano de obra necesaria. Ninguna de las plataformas que requiere este tipo de trabajo puede operar si no tiene miles de personas disponibles en todo momento. XL. ¿Hay un perfil específico? M.L.G. Podrías pensar en mujeres que cuidan a niños, pero hay muchos más. Es difícil estudiar un trabajo que está completamente distribuido desde su mismo diseño. El objetivo es poder recurrir a la gente en cualquier momento del día o de la noche; reunir a un grupo de personas que, al menos en teoría, no tienen contacto entre sí. Pero están en todos los países, en todas partes: piensa en alguien con acceso a Internet y ciertas facultades lingüísticas e informáticas para inscribirse en una cuenta y realizar una tarea que se le pida. XL. Dice que la mayoría tiene estudios universitarios. M.L.G. Y tiene sentido si piensas en los requisitos para desempeñar este tipo de trabajo: debes tener una cierta alfabetización mediática, saber usar Internet, móviles, ordenadores. Y necesitas acceso a la Red. Esto deja fuera, sobre todo en países como la India, a una serie de personas menos educadas, con menos capacidad económica. Al mismo tiempo, hay cada día más gente con educación universitaria. “La cuestión es: ¿vamos a intervenir? ¿Vamos a plantearnos si esta revolución laboral es conveniente o no? ¿O vamos a cruzarnos de brazos?” XL. Eso es algo positivo, ¿no? M.L.G. Por supuesto. Pero lo que está en cuestión es nuestro sueño de hacer de la educación la puerta de acceso a un trabajo estable a tiempo completo. El trabajo por proyectos está desplazando al contrato indefinido y la cuestión es: ¿vamos a intervenir? ¿Vamos a plantearnos si esta revolución laboral es conveniente? ¿Vamos a cruzarnos de brazos y esperar que lo que no funcionó el siglo pasado funcione ahora? Este es el gran reto de la inteligencia artificial. XL. ¿A qué se refiere? M.L.G. A que el ser humano no puede hacer otra cosa que ser humano: creativo, decisivo, con capacidad de juicio. ¡Dejemos de decir ‘inteligencia artificial’! Es software y punto. Y, hoy por hoy, depende de un trabajo infravalorado de millones de personas. XL. La buena noticia es que la llamada ‘inteligencia artificial’ no nos va a robar el trabajo. M.L.G. En realidad, la noticia es que ese no es el debate. Somos nosotros los que definimos la calidad de nuestras condiciones de trabajo. ¡No puede hacerlo la tecnología! Clasificar si una frase en Twitter es un chiste o un discurso de odio no es inherentemente un buen o un mal trabajo. Depende de las condiciones. “El trabajo por proyectos está desplazando al contrato indefinido. El sueño de que la educación sea la puerta de acceso a un trabajo estable a tiempo completo está en cuestión” XL. ¿Y cómo asegurarnos de que estas sean dignas? M.L.G. Piense en la industria textil. Hoy día, si quiero saber de dónde viene mi chaqueta, puedo mirar la cadena de suministros y ver quién ha participado, quién se ha beneficiado del proceso de elaboración, transporte y venta de mi chaqueta. Necesitamos hacer lo mismo para los servicios de información. Se trata de una barrera legal, política. Exigir unas condiciones dignas es responsabilidad de gobiernos, compañías y consumidores. Está en nuestras manos. XL. Microsoft, por cierto, se beneficia de la situación que denuncia. ¿Cómo ha reaccionado a sus investigaciones? M.L.G. Soy investigadora en Microsoft Research, pero el centro funciona de modo independiente. Mi trabajo allí consiste en la investigación científica básica y la compañía no interviene en mis preguntas ni mis respuestas. XL. Pero ¿ha cambiado algo en su modo de funcionar? M.L.G. Hemos compartido nuestras conclusiones con distintos equipos de la compañía y hablamos en público y con otros miembros de la industria. Es difícil saber si ha tenido impacto, dentro o fuera de Microsoft, pero hacemos lo posible para que así sea. EL EJÉRCITO DE TRABAJADORES FANTASMA Mary L. Gray explica las tres categorías en que se dividen estos trabajadores fantasma. Experimentalistas: son aquellas personas que acceden a este tipo de tareas para ver cómo es el trabajo, realizar uno o dos proyectos y dejarlo. Son la mayoría. Regulares: los que participan de vez en cuando para ganarse un dinero extra. Siempre conectados: trabajan a tiempo completo. «Las compañías que recurren a estos servicios necesitan los tres tipos de trabajadores. Son decenas de miles por cada compañía», añade Gray. Mary L. Gray: "La inteligencia artificial funciona gracias al trabajo mal pagado de millones de personas"
  4. La noticia la da Hispanidad.com, de Eulogio López, aunque si se busca una información más neutra se puede acudir a El País: Y luego está la nota de color: en los experimentos trabaja doña Estrella Núñez nada menos que vicerrectora de la Universidad Católica de Murcia (UCAM), obra de los neocatecomunales y, por tanto, con pedigrí de católica y, encima, presuntamente progre, como los propios kikos. Y todo esto, ¿para qué? Para logra órganos humanos –producidos en monos- para transplantes –en humanos, que no en monos, como creo haber dicho antes-. Izpisúa ya participó en la gran estafa científica del siglo XXI, que en España lideró, cómo no, Zapatero: la utilización de embriones humanos como cobayas de laboratorio. Con ello se destrozaron muchos embriones humanos, provenientes de la FIV. O sea, personas con su código genético individuado, distinto del padre y de la madre, y no se curó ni un resfriado. Los embriones humanos también son ‘los demás’, es decir, son “uno de nosotros” Ahora pretenden crear fábricas de órganos para trasplantes: ¡qué filántropos! ¿Y no sería mejor seguir el curso tradicional de investigación sobre los trasplantes naturales –de hombre a hombre-, que este rocambolesco modelo Izpisúa, mas sofisticado que terapéutico, más complicado que complejo? No se trata de salvar “barreras éticas” sino de considerar las barreras que impone el sentido común y el sentido de las proporciones. No se trata de probar por probar, se pretenda o no recrear el proyecto Centauro de la antigua Unión Soviética. Ya entiendo, quiero entender, que la Católica de Murcia no puede entender tamaña aberración producto del orgullo humano llevado a sus límites. Pero es que ni la moral cristiana ni la ética ‘civil’ responden a la pregunta que se puede hacer sin incurrir en aberración, sino qué debemos y podemos hacer por los demás. Por cierto, los embriones humanos también son ‘los demás’, es decir, son “uno de nosotros”. El cientifismo confunde los términos: no se trata de lo que se puede hacer, sino de lo que se debe hacer… por los demás Por lo demás, los cientifistas modernos, parecen vivir en el espejismo de la Fórmula 1. Ya saben: para convencer a un fabricante de automóviles de que aporte el pastizal que precisa un bólido se le convence de los muchos beneficios que reportará a la fabricación de coches ‘corrientes’ en las grandes cadenas de montaje. Uno de esos argumentos de marketing que todos aceptan y ninguno se cree. Ne vaya ser que en lugar de quimeras de hombre acabemos produciendo delicias de mono. La soberbia invade la ciencia: Juan Carlos Izpisúa produc... No he estudiado la cuestión a fondo aunque a primera vista me parece monstruosa. Pero aquí lo chocante es la presencia de la Universidad privada de los kikos en estos experimentos. Eulogio López se equivoca en una cosa: los kikos no son progres. Son progres en liturgia pero políticamente suelen ser muy conservadores. El famoso juez Serrano de Vox es uno de ellos. Y en Infocatólica hay un kiko que tiene mucha influencia y que hace tiempo cogió al Papa como saco de boxeo. ¿Será por eso que Infocatólica andan publicando artículos neutralistas que parecen blanquear estas tecnologías? Bioético responde a la aprobación de Japón de la investigación híbrida humano-animal - Infocatólica Antes de emitir un juicio definitivo me gustaría escuchar más opiniones.
  5. Traslado al foro un artículo que me ha parecido muy interesante. Resume con brevedad las diferentes tesis que hay sobre la tecnología y su relación con el ser humano. Me adhiero a estas tesis: 1) no toda innovación es progreso; 2) la tecnología no es neutral; 3) tenemos el deber de dominar la tecnología y de procurar que esté al servicio del hombre; 4) algunos aspectos del ser humano y de la sociedad no deberían ser modificados por la tecnología; 5) las grandes decisiones no deben estar al cargo de los técnicos.
  6. Hispanorromano

    El Taxi y UBER

    Con el taxi, el control del tráfico urbano lo tienen los ayuntamientos, como debe ser. Con Uber y Cabify el control lo tienen unas multinacionales que sólo miran su interés privado. Con el taxi, los conductores reciben un precio justo por su trabajo y pagan impuestos que van en beneficio de todos. Con Uber y Cabify reciben un salario de miseria y se eluden todos los impuestos posibles para que la diferencia se la queden estas multinacionales que intermedian. Con el taxi, hay un precio fijo para cada carrera. Con Uber y Cabify el precio varía en función de la demanda o de la santa voluntad de la multinacional, así que en una emergencia (atentado, huelga, temporal, etc.) el precio puede multiplicarse por diez. El funcionamiento del taxi no es modélico, pero lo que viene será mucho peor. Con el taxi comen muchas familias españolas. Con Uber y Cabify se reparten unas pobres migajas cada vez menos familias y el resto se lo quedan unas decenas de familias, generalmente infecundas, de la Bahía de San Francisco. Con el taxi nos queda la seguridad de que el control lo tiene el ayuntamiento y en definitiva la nación. Con Uber y Cabify el control lo tienen unas pocas multinacionales con un programa transhumanista. El uso de su app es sólo un paso intermedio para entrenar a la Inteligencia Artificial que sustituirá definitivamente a los conductores y tomará el control de nuestras ciudades. Con el taxi el control lo tiene el hombre. Con Uber y Cabify el control lo acabará teniendo una máquina que, en el mejor de los casos, trabajará para señores despiadados que viven a muchos miles de kilómetros. Con el taxi, el poder y la riqueza se reparten entre muchas personas. Con Uber y Caiby se concentran en muy pocas manos. No es bueno que el poder se concentre en tan pocas personas que, además, han declarado su voluntad de prescindir de la Humanidad. Así que opto por el taxi —aunque puedan plantearse muchas mejoras tanto en tarifas como en funcionamiento— y me declaro enemigo de Uber y Cabify. El amor a la Patria y a la Humanidad creo que debe traducirse en un rechazo radical de estas empresas y del modelo que proponen y luego imponen. Por eso, aunque previsible, es un grave error que Vox opte por estas empresas que pulverizan todas las fronteras y no precisamente para bien. Más opiniones en nuestro hilo: Gremio del taxi, a mojarse. - Debate de actualidad - Corazón Español
  7. Hispanorromano

    tecnología Neuropolítica

    Me ha parecido interesante este artículo sobre las últimas tendencias en propaganda política: Por supuesto, no se pueden pegar electrodos a todas las personas que ven la televisión o navegan por Facebook. Pero tampoco es necesario. Los resultados de los experimentos del enfoque neurológico en pequeños grupos pueden utilizarse para influir en los votantes fuera de la muestra. Si, por ejemplo, los datos biográficos revelan que las mujeres liberales mayores de 50 años se asustan al ver un anuncio sobre la inmigración ilegal, las campañas que desean avivar ese temor pueden transmitir el mismo mensaje a millones de personas con perfiles similares demográficos y sociales. Foto: "Yo mido la duda", afirma Ohme. "Solo puedo cambiar la opinión de una persona que duda. Si se trata de un creyente firme, no puedo modificar nada". Crédito: Dmitry Kostyukov. El enfoque de Pocovi en Emotion Research Lab requiere solo un reproductor de vídeo y una cámara web frontal. Cuando los voluntarios se registran en sus grupos de enfoque político online, ella les envía vídeos de un anuncio publicitario o de un candidato que ellos pueden ver en su portátil o teléfono. A medida que vayan asimilando el contenido, ella rastrea los movimientos de sus ojos y los cambios sutiles en sus expresiones faciales. "Hemos desarrollado algoritmos para leer las micro-expresiones en la cara y traducir en tiempo real las emociones que las personas sienten", dice Pocovi. "Muchas veces, la gente te dice 'Me preocupa la economía'. Pero, ¿qué es lo que nos conmueve realmente? En mi experiencia, no se trata de grandes cosas sino de las pequeñas y más cercanas. Algo tan minúsculo como el inoportuno ceño fruncido de un candidato", comenta ella, "puede manchar nuestra percepción de él sin darnos cuenta". Pocovi sostiene que su software de análisis facial puede detectar y medir "seis emociones principales, 101 emociones secundarias y ocho estados de ánimo", algo que crea interés en las campañas y ansia de saber cómo responde la gente a un mensaje o a un candidato. También ofrece un servicio de análisis de masas para rastrear las reacciones emocionales de rostros individuales en un mar humano, y eso significa que en las campañas se puede medir la temperatura de una habitación mientras un candidato habla. El software de ERL se basa en el sistema de codificación de la acción facial (FACS, por sus siglas en inglés) desarrollado por el famoso psicólogo estadounidense Paul Ekman. El algoritmo de Pocovi deconstruye cada imagen facial de la cámara web en más de 50 "unidades de acción", movimientos de grupos musculares específicos. Distintos grupos de unidades de acción corresponden a emociones particulares: cuando los músculos de la mejilla y del labio exterior se contraen al mismo tiempo revelan la felicidad, mientras que las cejas bajadas y los párpados superiores levantados demuestran la ira. Pocovi entrena a su sistema para que las reconozca mostrándole muchas imágenes de referencia de una gran base de datos de caras que expresan esa emoción. Algunos críticos del sistema de Ekman, como la neurocientífica Lisa Feldman Barrett, han argumentado que las expresiones faciales no se correlacionan necesariamente con los estados emocionales. Aun así, varios estudios han encontrado alguna correspondencia. En un trabajo de 2014 en la Universidad Estatal de Ohio (EE. UU.), los científicos cognitivos definieron 21 "emociones distintas", basadas en las formas consistentes en las que la mayoría de nosotros movemos nuestros músculos faciales. Pocovi dice que sus encuestas también funcionan como una herramienta para pulir la imagen de los candidatos. Ella analiza vídeos de los candidatos para identificar los momentos precisos cuando sus expresiones provocan que los votantes se sientan confundidos, disgustados o enojados. Los políticos pueden usar esta información para ensayar un enfoque emocional diferente, que se examinaría por la plataforma de encuestas de Pocovi hasta que produzca la respuesta deseada en los espectadores. En una campaña que Pocovi asesoraba, un candidato estaba grabando un vídeo publicitario de televisión con un mensaje alentador y positivo, pero seguía obteniendo críticas terribles en las emisiones de prueba. El poco rendimiento del vídeo era un misterio, hasta que el análisis de Pocovi del rostro del candidato mostró que inconscientemente transmitía enfado y disgusto. Cuando se dio cuenta de lo que estaba pasando, pudo modificar su presentación y obtener una mejor respuesta del público. Varios de los antiguos devotos del análisis por escáneres cerebrales también aplican técnicas más sencillas y económicas en la actualidad. Antes de la crisis financiera de 2008, comenta Ohme, los clientes internacionales estaban más dispuestos a traer a cinco hombres de Polonia para llevar a cabo estudios cerebrales in situ. Después de la recesión, sin embargo, ese negocio se acabó. Eso llevó a Ohme a desarrollar una estrategia diferente, sin ataduras del tiempo, de espacio o de los electrodos EEG. Su enfoque actualizado deriva de los estudios sobre sesgos inconscientes del psicólogo social Anthony Greenwald, quien se convirtió en su mentor cuando Ohme visitó los Estados Unidos con una beca Fulbright. Ohme explica que su prueba basada en el teléfono inteligente, que él llama iCode, revela preferencias políticas encubiertas que nunca aparecerían en los cuestionarios tradicionales o grupos focales. Los encuestados de Ohme comienzan respondiendo a las preguntas de ajuste para evaluar su tiempo base de reacción. Una persona normalmente más lenta, por ejemplo, podría tener la "unidad de tiempo" que dura 585 milisegundos, mientras que alguien más rápido podría tardar 387 milisegundos. Luego se muestran imágenes de políticos en la pantalla, cada uno con un solo atributo, como "confiable", "conocido" o "comparte mis valores". Los usuarios presionan "sí" o "no" para indicar si están de acuerdo con cada uno de ellos. A medida que avanza la prueba, la aplicación busca no solo cómo responden, sino lo rápido que tocan la pantalla y qué ritmo producen al tocarla. Lo interesante, cuenta Ohme, no es cómo responden a las preguntas per se, sino cuánto dudan primero. "Cuando medimos el nivel de vacilación, podemos ver algunas respuestas positivas, pero con dudas, y otras positivas e instantáneas", explica. "Evaluamos cuánto ha variado [de la línea de base]. Esta diferencia es la clave ". Ohme se niega a hablar de sus clientes políticos actuales con mucho detalle, citando acuerdos de confidencialidad. Pero cuenta que una encuesta de iCode de casi 900 personas, predijo la derrota de Hillary Clinton en 2016 antes de las elecciones. A lo largo del año, Clinton iba cómodamente por delante de Trump en las encuestas tradicionales. Pero cuando Ohme preguntaba a los sujetos de prueba si Clinton compartía sus valores, a menudo dudaban durante un tiempo inusualmente largo antes de responder que sí. Ohme sabía que la sensación de valores compartidos era un factor importante que motivó a la gente a votar en 2016 (en las elecciones anteriores la clave había sido la imagen de "poderoso" y "líder"), por lo que los resultados del análisis le dieron serias dudas sobre la victoria de Clinton. Él argumenta que, si la campaña de Clinton hubiera realizado uno de sus estudios antes de las elecciones, ella hubiese entendido la intensidad de su vulnerabilidad y hubiera podido realizar correcciones del rumbo. Ohme asegura haber ayudado a otros candidatos en situaciones similares. Una de sus encuestas reveló que, aunque un cliente europeo contaba con una base considerable de seguidores, muchos no estaban motivados a salir y votar porque suponían que su candidato ganaría. Gracias a este conocimiento, la campaña llevó a cabo un renovado esfuerzo para traer a sus votantes leales a las urnas. El cliente terminó ganando finalmente. Las mentiras más grandes en la vida Sin embargo, la pregunta consiste en si medir las reacciones espontáneas de las personas a un anuncio televisivo o a un discurso nos dice cómo votarán al final. "Desde el punto de vista práctico, no está muy claro, qué es posible y qué es real", dice Darren Schreiber, profesor de ciencias políticas en la Universidad de Exeter y autor de Your Brain Is Built for Politics. "Resulta fácil creer demasiado en la capacidad de estas herramientas". Hasta ahora, las pruebas cognitivas han tenido resultados mixtos. Los estudios contrastantes han demostrado que las actitudes implícitas sí predicen y no tanto cómo vota la gente. "El hecho de que las opiniones puedan ser manipuladas de formas que no conocemos tiene muchas repercusiones para el discurso político" No obstante, Schreiber, que realizó pruebas de análisis de las actitudes políticas con el escaneo del cerebro, admite que las tecnologías resultan preocupantes. La democracia asume la presencia de actores racionales, capaces de digerir la información de todas las partes y llegar a conclusiones fundamentadas. Si los neuro-expertos son la mitad de buenos como afirman en investigar los pensamientos más íntimos de la gente y cambiar sus intenciones de voto, aquella hipótesis se pone en cuestión. "Resultamos vulnerables de múltiples maneras, pero no somos conscientes de ello", sostiene Schreiber. "El hecho de que las opiniones puedan ser manipuladas de formas que no conocemos tiene muchas repercusiones para el discurso político". Si las campañas empujan a los votantes hacia su candidato sin el conocimiento de los votantes, las discusiones políticas que antes eran intercambios de puntos de vista razonados se convertirían en escaramuzas precipitadas que se alejan cada vez más del ideal democrático. "No creo que sea hora de entrar en pánico", prosigue Schreiber, "pero no creo que podamos ser optimistas al respecto". Ohme insiste en que los votantes pueden inocularse contra las tácticas de neuro-asesores si son lo suficientemente coherentes. "Yo mido la vacilación. Puedo cambiar la opinión solo de una persona que duda. Si se trata de un creyente firme, no puedo modificar nada", sostiene. "Si tienes miedo de ser manipulado, aprende. Cuanto más aprendes, más firmes y estables son tus opiniones, y más difícil es para alguien convencerte de lo contrario". Resulta un consejo perfectamente razonable. Pero me hace pensar. Después de conocer a Pocovi, me registré en Emotion Research Lab para permitir que su software rastreara mi rostro mientras yo veía un vídeo de demostración. El vídeo era de un bebé riéndose, y sentí como se torcían las esquinas de mi boca. Después, el ordenador me preguntó cómo me había sentido mientras lo veía. "Feliz", hice un clic. Soy una mamá, ¿verdad? Me encantan los bebés. Sin embargo, cuando llegó mi análisis de emoción, mostró que casi no había rastro de felicidad en mi rostro. Pensando sobre los resultados, me di cuenta de que el software de la emoción tenía razón. Realmente no había sido feliz en absoluto. Yo había tomado el test muy tarde por la noche y estaba exhausta. El ordenador me había visto de una manera en la que no estaba acostumbrada a verme a mí misma. Pensé en algo que el antiguo asesor de la campaña del presidente mexicano Dan Hill, me había dicho. "Las mentiras más grandes en la vida", aseguró, "son las que nos contamos a nosotros mismos". Elizabeth Svoboda es una escritora de ciencia en San José, California, (EE.UU.) y autora de What Makes a Hero?: The Surprising Science of Selflessness. https://www.technologyreview.es/s/10467/esta-empresa-espanola-dice-los-politicos-que-sienten-sus-votantes Por el bien de la Humanidad, espero que todo esto sea humo.
×