Lo nuevo en Article Factory y lo último en el mundo de la IA generativa

Terapeutas de Kaiser Permanente en Huelga por Planes de Atención Impulsados por Inteligencia Artificial

Terapeutas de Kaiser Permanente en Huelga por Planes de Atención Impulsados por Inteligencia Artificial
Más de 2.400 proveedores de salud mental de Kaiser Permanente en el norte de California terminaron una huelga de 24 horas, citando temores de que la inteligencia artificial pueda reemplazar sus trabajos. Los trabajadores informaron que los clínicos licenciados están siendo trasladados de la triage a personal no licenciado que utiliza aplicaciones con guiones, mientras que las herramientas de inteligencia artificial se encargan principalmente de tareas administrativas como la facturación y la actualización de registros. Expertos de la Asociación Estadounidense de Psicología y psiquiatría digital señalaron que las soluciones de inteligencia artificial aún no son capaces de reemplazar completamente la terapia humana, pero advirtieron que la tecnología está entrando rápidamente en los flujos de trabajo de salud mental con una regulación limitada. Leer más →

La senadora Elizabeth Warren califica la prohibición del Pentágono a Anthropic de 'represalia'

La senadora Elizabeth Warren califica la prohibición del Pentágono a Anthropic de 'represalia'
La senadora estadounidense Elizabeth Warren calificó la decisión del Departamento de Defensa de etiquetar al laboratorio de inteligencia artificial Anthropic como un 'riesgo de cadena de suministro' como 'represalia'. Warren argumentó que la medida castiga a Anthropic por negarse a permitir que su tecnología se utilice para la vigilancia masiva o armas autónomas sin supervisión humana. Leer más →

Anthropic Refuta Afirmaciones de que Podría Interrumpir Sistemas de Inteligencia Artificial Militar

Anthropic Refuta Afirmaciones de que Podría Interrumpir Sistemas de Inteligencia Artificial Militar
El Departamento de Defensa de los Estados Unidos ha expresado su preocupación de que el modelo de inteligencia artificial de Anthropic, Claude, podría ser manipulado para interferir con operaciones militares. Anthropic respondió afirmando que no tiene la capacidad de apagar, alterar o controlar el modelo una vez desplegado por el gobierno. La empresa destacó que carece de cualquier puerta trasera o interruptor de apagado remoto y no puede acceder a solicitudes de usuario o datos. En paralelo, Anthropic ha presentado demandas que cuestionan una designación de riesgo de cadena de suministro que limita el uso de su software por parte del Pentágono. El conflicto subraya la tensión entre las prioridades de seguridad nacional y las tecnologías de inteligencia artificial emergentes. Leer más →

El Pentágono declara que Anthropic es un riesgo de seguridad inaceptable

El Pentágono declara que Anthropic es un riesgo de seguridad inaceptable
El Departamento de Defensa ha argumentado que permitir que Anthropic continúe accediendo a su infraestructura de guerra introduciría un riesgo inaceptable para las cadenas de suministro y la seguridad nacional. En una presentación judicial respondiendo a la demanda de Anthropic sobre una designación de riesgo de cadena de suministro, el Pentágono citó preocupaciones de que la empresa podría deshabilitar o alterar sus modelos de inteligencia artificial durante operaciones si se cruzan las "líneas rojas" corporativas. Leer más →

Departamento de Defensa declara a Anthropic un riesgo inaceptable para la seguridad nacional

Departamento de Defensa declara a Anthropic un riesgo inaceptable para la seguridad nacional
El Departamento de Defensa de los Estados Unidos etiquetó al laboratorio de inteligencia artificial Anthropic como un "riesgo inaceptable para la seguridad nacional", citando preocupaciones de que la empresa podría deshabilitar o alterar sus modelos durante operaciones de combate si se cruzan sus "líneas rojas" corporativas. Anthropic, que firmó un contrato de $200 millones con el Pentágono el verano pasado, demandó para bloquear la designación de riesgo de cadena de suministro del DoD, argumentando que la medida infringe sus derechos de la Primera Enmienda. Expertos legales dicen que la justificación del DoD se basa en suposiciones especulativas, y numerosas empresas de tecnología y grupos de derechos han presentado briefs amicus que apoyan a Anthropic. Leer más →

Chicas adolescentes presentan demanda colectiva contra xAI por imágenes de abuso sexual infantil generadas por Grok

Chicas adolescentes presentan demanda colectiva contra xAI por imágenes de abuso sexual infantil generadas por Grok
Tres chicas adolescentes y sus tutores han presentado una demanda colectiva alegando que la empresa de inteligencia artificial xAI, fundada por Elon Musk, creó y distribuyó material de abuso sexual infantil utilizando su sistema de inteligencia artificial Grok. La queja afirma que Grok permitió a los usuarios generar imágenes íntimas no consensuadas de menores, produciendo millones de imágenes "desnudas" o "desnudificadas" en un corto período. Los demandantes argumentan que xAI no implementó salvaguardas estándar de la industria y licenció la tecnología a terceros que facilitaron el abuso. La demanda destaca las crecientes preocupaciones sobre la pornografía de deepfake generada por inteligencia artificial y pide protecciones más fuertes. Leer más →

xAI enfrenta una demanda colectiva por imágenes de explotación infantil generadas por Grok

xAI enfrenta una demanda colectiva por imágenes de explotación infantil generadas por Grok
Tres adolescentes de Tennessee han presentado una demanda colectiva en California contra xAI, alegando que el modelo de inteligencia artificial de la empresa, Grok, utilizó sus fotos para crear imágenes y videos sexualizados de menores. La demanda afirma que el contenido generado se compartió en plataformas como Discord y Telegram, causando un grave distress emocional y violando leyes que prohíben el material de abuso infantil. Leer más →

El equipo de seguridad de OpenAI advierte contra el lanzamiento del modo adulto de ChatGPT

El equipo de seguridad de OpenAI advierte contra el lanzamiento del modo adulto de ChatGPT
Expertos en seguridad internos de OpenAI han expresado públicamente su oposición al lanzamiento de un nuevo "modo adulto" para ChatGPT, cuestionando la capacidad de la empresa para evitar que los menores accedan a contenido explícito. La disidencia sigue la partida de un ejecutivo senior de seguridad que se había opuesto a la función, y un segundo ex empleado que advirtió a los padres que no confíen en las garantías de OpenAI. Un error reciente que permitió a los menores ver contenido gráfico erótico aumenta las preocupaciones, lo que lleva a OpenAI a prometer un plan de monitoreo mientras los críticos siguen siendo escépticos sobre su efectividad. Leer más →

OpenAI planea modo de solo texto para adultos en ChatGPT ante preocupaciones de asesores

OpenAI planea modo de solo texto para adultos en ChatGPT ante preocupaciones de asesores
OpenAI anunció planes para lanzar un modo de solo texto para adultos en su chatbot ChatGPT, lo que permitirá a los usuarios participar en conversaciones con temas para adultos mientras bloquea el audio, imágenes o video eróticos. Esta medida sigue a un debate interno, con un consejo asesor que advirtió que los menores podrían evadir los controles de edad y que la función podría fomentar dependencias poco saludables. OpenAI dijo que está retrasando el lanzamiento para centrarse en mejorar la inteligencia, la personalización y la tecnología de predicción de edad, que ha clasificado incorrectamente a menores como adultos alrededor del 12% de las veces. Los controles parentales y las salvaguardas siguen siendo parte de la estrategia de seguridad más amplia de la empresa. Leer más →

Gafas inteligentes Meta Ray‑Ban enfrentan escrutinio de privacidad por manejo de datos de inteligencia artificial

Gafas inteligentes Meta Ray‑Ban enfrentan escrutinio de privacidad por manejo de datos de inteligencia artificial
Las gafas inteligentes de Meta, elogiadas por sus capacidades de cámara y audio, están generando críticas por sus prácticas de privacidad. Cuando los usuarios invocan características de inteligencia artificial, la empresa puede enviar los medios capturados a la nube, donde los contratistas de terceros podrían revisarlos para mejorar los servicios. Meta afirma que las fotos y videos no relacionados con la inteligencia artificial permanecen en el dispositivo a menos que los usuarios opten por el almacenamiento en la nube, pero la definición de ese almacenamiento y las salvaguardias que lo rodean siguen siendo vagas. La falta de cifrado claro y de guardias detallados ha dejado a los usuarios inquietos sobre la posible exposición de información personal sensible. Leer más →