A Bloody Pig Mask Is Just Part of a Wild New Criminal Charge Against eBay

“Las acciones de eBay contra nosotros tuvieron un impacto perjudicial y permanente en nosotros (emocional, psicológico, físico, reputacional y financiero) y presionamos firmemente a los fiscales federales para que presentaran más acusaciones para disuadir a los ejecutivos corporativos y a los miembros de las juntas directivas de crear una cultura en la que el acecho y el acoso sean tolerado o alentado”, Ina y David Steiner decir en una declaración de víctima publicada en línea. La pareja también destacó que EcommerceBytes ha presentado una demanda civil contra eBay y sus ex empleados que se verá en 2025.

La Oficina Judicial de China ha afirmado que una institución de investigación privada, el Instituto de Evaluación Judicial Wangshendongjian de Beijing, ha creado una forma de identificar a las personas utilizando la herramienta AirDrop de Apple, incluida la determinación de números de teléfono, direcciones de correo electrónico y nombres de dispositivos. La policía ha podido identificar a los sospechosos utilizando esta técnica, según informes y un correo del Instituto. El método inalámbrico de comunicación e intercambio de archivos AirDrop de Apple se ha utilizado anteriormente en China para Protesta contra el liderazgo del presidente Xi Jinping.y Apple introdujo un período límite de tiempo para compartir de 10 minutos en Chinaantes de implementarlo a nivel mundial.

en un publicación de blog que analiza el incidenteel criptógrafo de la Universidad Johns Hopkins, Matthew Green, dice que el ataque fue descubierto inicialmente por investigadores de la Universidad Técnica de Darmstadt en Alemania en 2019. En resumen, dice Green, Apple no utiliza un sistema seguro intersección de conjunto privado que puede ayudar a enmascarar la identidad de las personas cuando se comunican con otros teléfonos mediante AirDrop. No está claro si Apple planea realizar algún cambio para evitar que se abuse de AirDrop en el futuro.

Han pasado más de 15 años desde que el malware Stuxnet fue introducido de contrabando en la planta de enriquecimiento de uranio de Natanz en Irán y destruyó cientos de centrifugadoras. A pesar del incidente que ocurrió hace más de una década, todavía se desconocen muchos detalles sobre el ataque, que se cree que fue coordinado por Estados Unidos e Israel. Eso incluye quién pudo haber entregado el virus Stuxnet a la instalación nuclear: se utilizó una memoria USB para instalar el gusano en las redes aisladas de la planta nuclear. En 2019, fue reportado que los servicios de inteligencia holandeses habían reclutado a alguien con información privilegiada para ayudar con el ataque. Esta semana, la publicación holandesa Volkskrant afirmó identificar al topo como Erik van Sabben. Según el informe, van Sabben fue reclutado por el servicio de inteligencia holandés AIVD en 2005, y los políticos de los Países Bajos no estaban al tanto de la operación. Se dice que Van Sabben abandonó Irán poco después de que comenzara el sabotaje. Sin embargo, murió dos semanas después, el 16 de enero de 2009, tras verse involucrado en un accidente de motocicleta en Dubai.

Los rápidos avances en los sistemas de inteligencia artificial generativa, que utilizan el aprendizaje automático para crear texto y producir imágenes, han hecho que las empresas se apresuren a incorporar chatbots o tecnologías similares en sus productos. A pesar del progreso, aún se aplican las prácticas tradicionales de ciberseguridad de bloquear los sistemas contra el acceso no autorizado y asegurarse de que las aplicaciones no puedan acceder a demasiados datos. Esta semana, 404 Media informó que Chattr, una empresa que crea un “asistente digital de IA” para ayudar con la contratación, expuso datos a través de una configuración incorrecta de Firebase y también reveló cómo funcionan sus sistemas. Esto incluye que la IA parezca tener la capacidad de “aceptar o rechazar solicitantes de empleo”. El investigador de seguridad seudónimo detrás del hallazgo, MrBruh, compartió un video con 404 Media que muestra al chatbot que parece tomar decisiones automáticamente sobre solicitudes de empleo. Chattr aseguró los sistemas expuestos después de ser contactado por los investigadores, pero no hizo comentarios sobre el incidente.

Fuente