I+D+i

TESIS DOCTORAL en proceso de investigación

APLICACIÓN DE LA INTELIGENCIA ARTIFICIAL PARA LA PREVENCIÓN DE LA CIBERDELINCUENCIA: MODELOS PREDICTIVO Y TÉCNICOS AVANZADOS DE DETECCIÓN DE AMENAZAS.

Desarrollo de un sistema basado en inteligencia artificial para la detección temprana, predicción y prevención de ciberamenazas a través del análisis inteligente de datos. El sistema mejorará la capacidad de respuesta y mitigación frente a ciberataques en tiempo real, incrementando la eficacia en la protección de redes y sistemas. Además, establecer metodologías estandarizadas para la captura de evidencias tecnológicas de ciberdelitos, garantizando que dichas evidencias cumplan con los requisitos legales necesarios para ser admitidas como pruebas en los tribunales judiciales de España.

Doctorando D. Bartomeu Segura i Duran. Universidad Americana en Europa

ARTICULO DE OPINIÓN

LA ÉTICA DEL PERITO, IMPARCIALIDAD, VERDAD TÉCNICA Y DEONTOLOGÍA PROFESIONAL

La peritación informática judicial ocupa hoy un lugar cada vez más relevante en los procedimientos judiciales. Correos electrónicos, registros de acceso, dispositivos móviles, sistemas de información, metadatos, copias forenses y evidencias digitales forman parte habitual de litigios civiles, penales, laborales y mercantiles. En este contexto, la figura del perito informático debería estar presidida por un principio innegociable: la imparcialidad.

Sin embargo, la práctica diaria demuestra que no siempre sucede así. Junto a profesionales rigurosos, solventes y honestos, también existen periciales cuyo verdadero objetivo no parece ser la búsqueda de la verdad técnica, sino la defensa interesada de la posición del cliente que paga sus honorarios. Se trata de informes orientados no a esclarecer los hechos, sino a construir una apariencia de razón allí donde, en ocasiones, la base técnica es débil, discutible o directamente insostenible.

Este problema no es menor. El perito no puede convertirse en un mero “abogado técnico” de la parte que lo contrata. Aunque la pericial sea de parte, su función no debería ser complacer al cliente, sino explicar con objetividad, rigor metodológico y honestidad profesional aquello que los indicios técnicos permiten concluir, y también, con la misma claridad, aquello que no permiten afirmar.

La imparcialidad debe ser el núcleo de la función pericial. La imparcialidad no exige ausencia de criterio, sino ausencia de servidumbre. El perito puede ser propuesto por una de las partes, pero no debe quedar subordinado a sus intereses. Su compromiso esencial debe ser con la verdad técnica, con la metodología científica y con el tribunal.

Un perito éticamente solvente no fuerza conclusiones, no exagera hallazgos, no oculta limitaciones y no transforma hipótesis en certezas. Del mismo modo, no adapta su dictamen a las expectativas comerciales del cliente. La independencia intelectual constituye, precisamente, la principal garantía de credibilidad del informe pericial.

Cuando esta independencia desaparece, la pericia deja de ser un instrumento de auxilio a la justicia y pasa a convertirse en un producto de parte, diseñado para sostener un relato preconcebido. En ese momento, la pericial pierde dignidad técnica y valor moral.

ARTÍCULO CIENTÍFICO

372 QUBITS FÍSICOS PONEN EN PELIGRO LA CIBERSEGURIDAD DE RSA 2048

La seguridad de Internet, la banca electrónica, las firmas digitales y la mayor parte de las comunicaciones cifradas actuales se fundamentan en el sistema RSA, un método criptográfico basado en la enorme dificultad de factorizar números enteros muy grandes, por ejemplo, de 2048 bits.

El algoritmo cuántico de Shor, propuesto en 1994, demostró teóricamente que un ordenador cuántico podría romper RSA. Sin embargo, su aplicación práctica sigue fuera de alcance, ya que requeriría millones de qubits estables y libres de errores, algo que las tecnologías actuales no pueden ofrecer.

El grupo de investigadores de la Tsinghua University y la Zhejiang University, liderados por los doctores Bao Yan, Ziqi Tan y Shijie Wei, ha desarrollado una alternativa más eficiente que acerca este desafío a la realidad: el algoritmo SQIF (Sublinear-resource Quantum Integer Factorization).

El algoritmo SQIF bajo un enfoque híbrido, combina computación clásica y cuántica para reducir drásticamente la cantidad de recursos necesarios para factorizar números grandes.

En la etapa clásica, utilizando el algoritmo de Schnorr, que transforma el problema de la factorización en un desafío geométrico dentro de una estructura matemática denominada retícula (lattice).

En la etapa cuántica, aplicamos el Quantum Approximate Optimization Algorithm (QAOA), un algoritmo variacional que explota las propiedades de la mecánica cuántica, como la superposición y el paralelismo, para encontrar soluciones óptimas dentro de la retícula de forma mucho más rápida y con menos qubits.

Esta combinación permite optimizar el proceso de factorización y aprovechar los recursos de los ordenadores cuánticos ruidosos actuales (NISQ) sin necesidad de máquinas cuánticas totalmente estables. El equipo de investigación de la Tsinghua University y la Zhejiang University, ha implementado el algoritmo en un procesador cuántico superconductivo de 10 qubits, similar a los chips de IBM o Google, los resultados obtenidos han sido notables.

Se ha factorizado el número 1961 de un tamaño de 11 bits usando 3 qubits, el número 48567226 de 26 bits con 5 qubits y el número 261980999226229 de 48 bits y 10 qubits. Este último, representa el mayor número factorizado cuánticamente mediante un método general hasta la fecha, y confirma la eficacia del enfoque híbrido.

SQIF necesita muchos menos  qubits, por su crecimiento sublineal, que el algoritmo de Short, debido a su crecimiento lineal.

Para un sistema RSA-2048, los autores estiman que bastarían unos 372 qubits físicos y una profundidad de circuito de alrededor de 1.000–1.500 operaciones, una cifra potencialmente alcanzable en los próximos años.

Aunque el nuevo método no rompe RSA en la actualidad, representa un paso importante hacia esa posibilidad. Demuestra que ya no serían necesarios millones de qubits: bastarían unos pocos cientos de alta fidelidad.

Además, este trabajo, confirma que los ordenadores cuánticos ruidosos actuales (NISQ) pueden ejecutar tareas de relevancia criptográfica real. Abre la puerta a ataques híbridos (clásico + cuántico) más eficientes en el corto plazo.

El Impacto en ciberseguridad acelera el reloj hacia la llegada de amenazas cuánticas reales contra los sistemas RSA y otros esquemas basados en factorización refuerza la necesidad de migrar hacia criptografía poscuántica, sustentada en problemas matemáticos considerados resistentes a los ordenadores cuánticos, como los basados en retículas, isogenias o códigos de error.

En otras palabras, aunque RSA-2048 sigue siendo seguro hoy, la muralla empieza a mostrar grietas ante el progreso de la computación cuántica.

El estudio realizado por los investigadores de Tsinghua y Zhejiang demuestra que, es posible factorizar números cada vez más grandes empleando un número reducido de qubits. Los algoritmos híbridos como SQIF representan una vía intermedia realista entre la teoría y la aplicación práctica de la computación cuántica.

La era poscuántica ya no pertenece al futuro distante: está comenzando ahora.

Scroll al inicio