Revista Multidisciplinaria Perspectivas Investigativas
Multidisciplinary Journal Investigative Perspectives
Vol. 6(1), 47-58, 2026
https://doi.org/10.62574/rmpi.v6i1.507
47
La responsabilidad civil objetiva por daños derivados de la Inteligencia
Artificial: Un análisis crítico frente al sistema de riesgos del Código Civil
ecuatoriano
Strict liability for damages arising from artificial intelligence: A critical
analysis in light of the risk framework of the Ecuadorian Civil Code
María Estefania Baldeon-Navarrete
mbaldeonn@unemi.edu.ec
Universidad Estatal de Milagro, Milagro, Guayas, Ecuador
https://orcid.org/0009-0002-1286-9494
Rously Eedyah Atencio-González
reatenciog@ube.edu.ec
Universidad Bolivariana del Ecuador, Durán, Guayas, Ecuador
https://orcid.org/0000-0001-6845-1631
Geovanna Michelle Nájera-Tello
Vanna_michelle@hotmail.com
Universidad Casa Grande, Guayaquil, Guayas, Ecuador
https://orcid.org/0000-0001-7487-7938
Esperanza Jamilet Vera-Anchundia
esjavean97@hotmail.com
Red de Investigación Koinonia, Guayaquil, Guayas, Ecuador
https://orcid.org/0000-0003-3241-6740
RESUMEN
La investigación tuvo como objetivo analizar la responsabilidad civil objetiva por daños derivados de la
inteligencia artificial frente al sistema de riesgos del Código Civil ecuatoriano. Se adoptó un diseño de
metaanálisis mediante la búsqueda sistemática en bases de datos Scopus, Web of Science, Latindex, con
un período de cobertura entre enero de 2015 y marzo de 2026, incluyendo 27 fuentes que cumplieron los
criterios de selección establecidos. Se identificaron cinco fenómenos jurídicos recurrentes: causalidad
difusa, fragmentación subjetiva de la responsabilidad, asimetría informacional, obsolescencia del concepto
de culpa y laguna normativa de cobertura, que evidencian la insuficiencia del marco civil vigente para
atribuir responsabilidad por daños algorítmicos. Se concluye que el Ecuador requiere una reforma
normativa que incorpore responsabilidad objetiva agravada, solidaridad entre actores tecnológicos,
inversión de la carga probatoria, un fondo de garantía subsidiario y obligaciones de transparencia
diferenciadas según el nivel de riesgo del sistema.
Descriptores: inteligencia artificial; responsabilidad civil; derechos civiles. (Fuente: Tesauro UNESCO).
ABSTRACT
The aim of the research was to analyse strict civil liability for damages arising from artificial intelligence in
relation to the risk framework of the Ecuadorian Civil Code. A meta-analysis design was adopted, involving
a systematic search of the Scopus, Web of Science and Latindex databases, covering the period from
January 2015 to March 2026, and including 27 sources that met the established selection criteria. Five
recurring legal phenomena were identified: diffuse causation, subjective fragmentation of liability,
informational asymmetry, obsolescence of the concept of fault, and a regulatory coverage gap, which
highlight the inadequacy of the current civil framework for attributing liability for algorithmic harm. It is
concluded that Ecuador requires regulatory reform incorporating aggravated strict liability, joint and several
liability amongst technology providers, reversal of the burden of proof, a subsidiary guarantee fund, and
differentiated transparency obligations according to the system’s risk level.
Descriptors: artificial intelligence; civil liability; civil rights. (Source: UNESCO Thesaurus).
Recibido: 19/01/2026. Revisado: 25/01/2026. Aprobado: 23/03/2026. Publicado: 27/03/2026.
Sección artículos de investigación
Revista Multidisciplinaria Perspectivas Investigativas
Multidisciplinary Journal Investigative Perspectives
Vol. 6(1), 47-58, 2026
La responsabilidad civil objetiva por daños derivados de la Inteligencia Artificial: Un análisis crítico frente al sistema de riesgos
del Código Civil ecuatoriano
Strict liability for damages arising from artificial intelligence: A critical analysis in light of the risk framework of the Ecuadorian
Civil Code
María Estefania Baldeon-Navarrete
Rously Eedyah Atencio-González
Geovanna Michelle Nájera-Tello
Esperanza Jamilet Vera-Anchundia
48
INTRODUCCIÓN
El siglo XXI ha consolidado la inteligencia artificial (IA) como una de las fuerzas
transformadoras más relevantes del orden jurídico contemporáneo; su despliegue masivo en
sectores como la salud, la justicia, las finanzas y la administración pública configura escenarios
en los que las decisiones adoptadas por sistemas algorítmicos producen efectos directos e
indirectos sobre los derechos subjetivos de las personas, de manera que la ciencia jurídica se
ve compelida a interrogarse si los instrumentos tradicionales de la responsabilidad civil,
concebidos para regular conductas humanas voluntarias, resultan idóneos cuando el agente
causante del daño es una máquina dotada de capacidades de aprendizaje autónomo.
Desde una perspectiva histórica, el Derecho ha respondido a cada revolución tecnológica
mediante la adaptación progresiva de sus categorías: la aparición del automóvil generó los
regímenes de responsabilidad objetiva por actividades riesgosas; la energía nuclear introdujo la
responsabilidad absoluta, y la era digital desafió los conceptos de identidad, privacidad y
autoría. La IA, sin embargo, presenta una singularidad que supera esos precedentes, pues su
capacidad para aprender, adaptarse y tomar decisiones en entornos no previstos por el
programador original difumina las fronteras entre el diseñador, el operador y el objeto autónomo
como fuentes de causalidad jurídica; así lo han advertido, entre otros, Čerka et al. (2015) y
Parra-Sepúlveda y Concha-Machuca (2021).
En el contexto latinoamericano, el Ecuador no cuenta con una normativa específica que regule
la responsabilidad derivada del uso de IA; el Código Civil ecuatoriano, heredero de la tradición
codificadora chilena de mediados del siglo XIX, estructura la responsabilidad extracontractual
sobre la culpa probada o sobre la presunción de culpabilidad en ciertos supuestos de
actividades peligrosas, pero no contempla un régimen diferenciado para los daños producidos
por sistemas tecnológicos avanzados; tal omisión adquiere especial gravedad si se considera
que la jurisprudencia ecuatoriana carece de precedentes consolidados en la materia y que la
doctrina nacional apenas inicia el debate, según señalan Narváez-López (2019) y Concha-
Flores (2024).
La pregunta central que orienta esta investigación se formula en los siguientes términos: ¿es el
régimen de responsabilidad civil objetiva previsto en el Código Civil ecuatoriano suficiente para
atribuir responsabilidad por los daños derivados de sistemas de inteligencia artificial, o resulta
necesaria una reforma normativa que incorpore criterios específicos acordes con la naturaleza
tecnológica del agente causante? Su pertinencia radica en que las lagunas normativas no solo
generan inseguridad jurídica para las víctimas, sino que tambn constituyen un desincentivo
para el desarrollo responsable de la tecnología en el país, conforme han destacado Reed
(2018) y Gallegos-Unda et al. (2025).
La literatura internacional ha avanzado en el estudio de este problema desde perspectivas
distintas: autoras y autores del ámbito anglosajón han propuesto marcos de responsabilidad
objetiva sin culpa, tal como argumenta Marchisio (2021); investigaciones comparadas han
examinado el tratamiento diferencial que ofrecen los sistemas de responsabilidad subjetiva,
objetiva e híbrida, según documentan Díaz y Mitrani (2025); y los desarrollos normativos
europeos, particularmente las directivas de responsabilidad civil de la Unión Europea, han
abierto un debate que trasciende las fronteras continentales, en el marco que analizan
Solaiman y Malik (2025); frente a este escenario, el análisis del caso ecuatoriano aporta una
perspectiva situada en un sistema jurídico de derecho civil periférico, con capacidades
institucionales y tecnológicas en proceso de consolidación.
Revista Multidisciplinaria Perspectivas Investigativas
Multidisciplinary Journal Investigative Perspectives
Vol. 6(1), 47-58, 2026
La responsabilidad civil objetiva por daños derivados de la Inteligencia Artificial: Un análisis crítico frente al sistema de riesgos
del Código Civil ecuatoriano
Strict liability for damages arising from artificial intelligence: A critical analysis in light of the risk framework of the Ecuadorian
Civil Code
María Estefania Baldeon-Navarrete
Rously Eedyah Atencio-González
Geovanna Michelle Nájera-Tello
Esperanza Jamilet Vera-Anchundia
49
De ese modo; el objetivo de la investigación es analizar la responsabilidad civil objetiva por
daños derivados de la Inteligencia Artificial frente al sistema de riesgos del Código Civil
ecuatoriano.
La responsabilidad civil objetiva: fundamentos doctrinales
La responsabilidad civil objetiva, también denominada responsabilidad por riesgo o sin culpa,
constituye una de las construcciones más relevantes del derecho privado moderno; a diferencia
del régimen subjetivo, que exige la demostración de la culpa o el dolo del agente causante del
daño, la responsabilidad objetiva imputa las consecuencias dañosas a quien introduce en la
sociedad una fuente de riesgo, con independencia de si actuó diligentemente o no; esta
formulación, de raíz doctrinal francesa e italiana, encontró recepción en los ordenamientos
latinoamericanos a través de las cláusulas generales sobre actividades peligrosas, según
señalan Jácome Aguirre et al. (2023) y Guamán-Quinzo y Batista-Hernández (2024).
En el Código Civil ecuatoriano, la responsabilidad extracontractual se articula sobre el artículo
2214, que establece la obligación de reparar el daño causado por hecho ilícito doloso o
culposo, y sobre el artículo 2229, que contempla la responsabilidad por actividades que por su
naturaleza son susceptibles de causar daño a terceros; con todo, la aplicación de estas
disposiciones a los sistemas de IA enfrenta el problema de la llamada «caja negra» algorítmica,
esto es, la imposibilidad fáctica de determinar con precisión qué elemento del sistema provocó
la decisión dañosa y si existió alguna forma de culpa atribuible a un sujeto humano identificado,
tal como advierten Rodríguez-Corría y Alba-Cazales (2025) y Jaramillo-Valdivieso (2024).
La doctrina ecuatoriana ha señalado que la equiparación entre culpa grave y dolo, prevista en
el artículo 29 del Código Civil, introduce una presunción que podría extenderse al tratamiento
de errores algorítmicos gravemente negligentes; esta construcción, sin embargo, resulta
insuficiente cuando el daño emerge de una conducta autónoma del sistema, no directamente
reconducible a la decisión de ningún operador humano, según apuntan Jácome Aguirre et al.
(2023); la responsabilidad objetiva aparece, en consecuencia, como el mecanismo más
coherente con la lógica distributiva del riesgo tecnológico, pues recae sobre quien obtiene el
beneficio económico de la actividad riesgosa.
Inteligencia artificial y tipología de daños
La literatura especializada identifica al menos tres categorías de daños susceptibles de ser
producidos por sistemas de IA: los daños físicos, los daños patrimoniales y los daños a
derechos fundamentales como la privacidad, la igualdad y la dignidad; los primeros
comprenden lesiones corporales o la muerte causados por dispositivos autónomos como
vehículos, robots quirúrgicos o drones, los segundos incluyen pérdidas financieras derivadas de
decisiones algorítmicas en mercados bursátiles, otorgamiento de créditos o gestión de seguros,
y los terceros se configuran cuando sistemas de reconocimiento facial, perfilamiento de datos o
toma de decisiones automatizadas producen discriminación o vulneran la privacidad de las
personas, en los términos que describen Bottomley y Thaldar (2023) y Wang y Zhou (2025).
Para el análisis jurídico, resulta pertinente distinguir entre los sistemas de IA débil, que ejecutan
tareas específicas predefinidas por el programador, y los sistemas de IA fuerte o de aprendizaje
automático avanzado, capaces de operar en entornos no anticipados y de modificar sus
propios parámetros de decisión; esta distinción importa porque, en los sistemas débiles, la
cadena causal entre el diseño y el daño es relativamente trazable, mientras que en los
sistemas fuertes la causalidad se difumina al punto de que ningún agente humano puede
prever ni controlar de manera completa las consecuencias de la acción algorítmica, como
sostienen Erkan y Biswas (2025) y Custers et al. (2025).
Revista Multidisciplinaria Perspectivas Investigativas
Multidisciplinary Journal Investigative Perspectives
Vol. 6(1), 47-58, 2026
La responsabilidad civil objetiva por daños derivados de la Inteligencia Artificial: Un análisis crítico frente al sistema de riesgos
del Código Civil ecuatoriano
Strict liability for damages arising from artificial intelligence: A critical analysis in light of the risk framework of the Ecuadorian
Civil Code
María Estefania Baldeon-Navarrete
Rously Eedyah Atencio-González
Geovanna Michelle Nájera-Tello
Esperanza Jamilet Vera-Anchundia
50
En el ámbito de la administración de justicia ecuatoriana, la incorporación de herramientas de
IA para la gestión de expedientes, la predicción de sentencias y el análisis de pruebas
introduce riesgos específicos vinculados a la automatización de decisiones judiciales; sobre
esta materia, autores como Aguas-Yáñez et al. (2024), Escobar-Escobar et al. (2024), Zabala-
Balladares et al. (2024) y Orozco-Zavala et al. (2024) han advertido sobre los peligros de sesgo
algorítmico en procesos penales y civiles, la falta de transparencia en la toma de decisiones y
la ausencia de mecanismos de rendición de cuentas cuando el sistema arroja resultados
erróneos.
Modelos de imputación en el derecho comparado
El debate sobre el modelo de imputación más adecuado para los daños por IA ha producido
tres propuestas principales en la doctrina: la primera propone mantener el régimen de
responsabilidad subjetiva con adaptaciones probatorias, tales como la inversión de la carga de
la prueba o el uso de presunciones de culpabilidad, postura sostenida por quienes estiman que
la responsabilidad sin culpa desincentiva la innovación tecnológica; la segunda propone
adoptar un régimen de responsabilidad objetiva pura, similar al aplicable a las actividades
nucleares, que prescinda de cualquier consideración de culpa y funde la imputación
únicamente en el nexo causal entre el funcionamiento del sistema y el daño producido, posición
que sustentan Marchisio (2021) y Erkan y Biswas (2025).
La tercera propuesta, crecientemente dominante en los debates europeos y latinoamericanos,
opta por un régimen híbrido que combina elementos objetivos y subjetivos según el tipo de
sistema, el grado de autonomía, el sector de actividad y el tipo de daño producido; esta
alternativa contempla la distribución compartida de responsabilidad entre el desarrollador del
algoritmo, el operador que lo despliega y el usuario que lo utiliza, asignando a cada uno una
cuota proporcional a su capacidad de control sobre el sistema, en la línea que proponen Díaz y
Mitrani (2025), Muñoz (2025) y Custers et al. (2025).
En el plano europeo, la Directiva de Responsabilidad por IA de la Unión Europea y la reforma
de la Directiva de Responsabilidad por Productos Defectuosos han establecido que los
sistemas de IA de alto riesgo deben quedar sujetos a un régimen de responsabilidad objetiva
con límites cuantitativos de cobertura obligatoria, mientras que los sistemas de bajo riesgo
permanecen bajo el régimen de culpa con inversión de la carga probatoria; este modelo ha sido
analizado en perspectiva comparada como un referente para los ordenamientos
latinoamericanos que carecen de normativa sectorial en materia de IA, según advierten
Solaiman y Malik (2025) y Schoolcraft et al. (2026).
El sistema de riesgos en el Código Civil ecuatoriano
El Código Civil ecuatoriano incorpora el principio de responsabilidad por actividades peligrosas
a través de las disposiciones sobre daños causados por animales, ruina de edificios y
actividades industriales; la doctrina ecuatoriana ha debatido si estas cláusulas pueden ser
interpretadas extensivamente para incluir los sistemas tecnológicos avanzados como fuentes
de riesgo análogas a las contempladas por el legislador decimonónico, y en este debate el
argumento a favor de la extensión analógica sostiene que el fundamento de la norma no es la
naturaleza específica del objeto peligroso, sino el principio general de que quien crea un riesgo
debe asumir las consecuencias dañosas que de él se deriven, postura que comparten
Guanoluisa Almache et al. (2021) y Zúñiga-Hurtado y Hurtado-Macías (2023).
No obstante, la extensión analógica enfrenta objeciones técnicas de peso: en primer lugar, el
principio de tipicidad del ilícito civil requiere que el supuesto de hecho normativo sea
suficientemente determinado, pues la elasticidad excesiva de la norma puede generar
Revista Multidisciplinaria Perspectivas Investigativas
Multidisciplinary Journal Investigative Perspectives
Vol. 6(1), 47-58, 2026
La responsabilidad civil objetiva por daños derivados de la Inteligencia Artificial: Un análisis crítico frente al sistema de riesgos
del Código Civil ecuatoriano
Strict liability for damages arising from artificial intelligence: A critical analysis in light of the risk framework of the Ecuadorian
Civil Code
María Estefania Baldeon-Navarrete
Rously Eedyah Atencio-González
Geovanna Michelle Nájera-Tello
Esperanza Jamilet Vera-Anchundia
51
inseguridad jurídica y decisiones contradictorias en sede judicial; en segundo lugar, las
actividades peligrosas contempladas en el Código Civil ecuatoriano suponen la intervención de
un agente humano que controla la actividad, situación que no siempre se verifica en sistemas
de IA de alta autonomía, y en tercer lugar, la determinación del nexo causal en los daños por IA
requiere conocimientos cnicos altamente especializados que el sistema judicial ecuatoriano
aún no ha desarrollado de manera sistemática, como señalan Kostrzewa y Nowak (2022) y
Guamán-Quinzo y Batista-Hernández (2024).
Estas limitaciones han llevado a parte de la doctrina a considerar que la respuesta no puede
ser únicamente hermenéutica, sino que exige una reforma legislativa que incorpore, dentro del
propio Código Civil o en una ley especial complementaria, un régimen diferenciado de
responsabilidad para las actividades de desarrollo despliegue y uso de sistemas de IA; postura
que comparten Concha-Flores (2024), Parra-Sepúlveda y Concha-Machuca (2021) y
Rodríguez-Corría y Alba-Cazales (2025).
MÉTODO
La investigación adoptó un diseño de metaanálisis cualitativo, orientado a la síntesis
sistemática y crítica de los aportes doctrinales, normativos y jurisprudenciales publicados sobre
la responsabilidad civil por daños derivados de sistemas de IA; el metaanálisis cualitativo, a
diferencia del metaanálisis cuantitativo propio de las ciencias de la salud, no procuró la
agregación estadística de datos numéricos, sino la integración interpretativa de los resultados
de múltiples estudios cualitativos sobre un mismo fenómeno jurídico, con el propósito de
construir una comprensión más amplia y de mayor alcance que la ofrecida por cada estudio
individual, en la línea que propusieron Parra-Sepúlveda y Concha-Machuca (2021).
La búsqueda bibliográfica se realizó en las bases de datos Scopus, Web of Science, Latindex,
Google Scholar, Dialnet y los repositorios institucionales de UNIANDES y de las universidades
ecuatorianas y latinoamericanas con mayor producción en derecho civil y tecnología; los
descriptores empleados fueron: «inteligencia artificial y responsabilidad civil», «daños por IA y
derecho civil», «responsabilidad objetiva y IA», «Código Civil Ecuador y tecnología», artificial
intelligence liability, AI tort law y sus variantes combinadas en español, inglés y portugués; el
período de búsqueda abarcó desde enero de 2015 hasta marzo de 2026.
Los criterios de inclusión aplicados fueron los siguientes: a) publicaciones en revistas arbitradas
con factor de impacto o indexadas en bases de datos reconocidas; b) textos que abordaron
específicamente la responsabilidad civil en relación con sistemas de IA; c) estudios que
examinaron el derecho civil ecuatoriano, latinoamericano o comparado, y d) publicaciones
disponibles en texto completo; los criterios de exclusión comprendieron: a) textos que trataron
la IA de manera exclusiva desde una perspectiva técnica o informática, sin vínculo jurídico; b)
publicaciones en idiomas distintos al español, inglés o portugués, y c) textos de opinión sin
respaldo teórico verificable.
Se incluyeron 27 fuentes primarias que cumplieron la totalidad de los criterios señalados; el
análisis procedió mediante tres fases sucesivas: en la primera, se identificaron las categorías
temáticas emergentes en la literatura, entre las que se contaron los modelos de imputación, el
nexo causal, la distribución de responsabilidades y las propuestas normativas; en la segunda,
se sistematizaron los argumentos centrales de cada fuente en relación con dichas categorías, y
en la tercera, se confrontaron los argumentos entre sí y se contrastaron con el marco normativo
ecuatoriano vigente, con el propósito de extraer inferencias orientadas a la formulación de
propuestas de reforma; el rigor metodológico se garantizó mediante la triangulación teórica y la
verificación cruzada de las fuentes.
Revista Multidisciplinaria Perspectivas Investigativas
Multidisciplinary Journal Investigative Perspectives
Vol. 6(1), 47-58, 2026
La responsabilidad civil objetiva por daños derivados de la Inteligencia Artificial: Un análisis crítico frente al sistema de riesgos
del Código Civil ecuatoriano
Strict liability for damages arising from artificial intelligence: A critical analysis in light of the risk framework of the Ecuadorian
Civil Code
María Estefania Baldeon-Navarrete
Rously Eedyah Atencio-González
Geovanna Michelle Nájera-Tello
Esperanza Jamilet Vera-Anchundia
52
RESULTADOS
El metaanálisis de la literatura revisada permite identificar cinco fenómenos jurídicos
recurrentes que configuran el escenario de la responsabilidad civil por daños de IA en el
contexto ecuatoriano:
Fenómenos normativos identificados en relación con el objetivo
El primero es el fenómeno de la causalidad difusa; en los sistemas de IA de aprendizaje
automático, la cadena causal que une el comportamiento del sistema con el daño producido no
puede reconstruirse mediante los instrumentos probatorios tradicionales, pues la naturaleza
estadística y probabilística de los modelos de IA implica que una misma decisión algorítmica
puede derivar de millones de datos de entrenamiento, de ajustes realizados por múltiples
actores en diferentes momentos y de variables contextuales no previstas en el diseño original;
tal difusión causal hace inoperante el requisito de nexo causal directo que exige el artículo
2214 del Código Civil ecuatoriano, dado que la víctima se enfrenta a una prueba prácticamente
imposible de producir sin acceso a los datos internos del sistema, que en muchos casos
constituyen secretos comerciales protegidos, tal como advierten Čerka et al. (2015), Erkan y
Biswas (2025) y Rodríguez-Corría y Alba-Cazales (2025).
El segundo fenómeno es la fragmentación subjetiva de la responsabilidad; los sistemas de IA
son producidos, distribuidos y utilizados por una cadena de actores que incluye a
desarrolladores de algoritmos, proveedores de infraestructura tecnológica, operadores que
personalizan el sistema y usuarios finales, de manera que esta fragmentación impide identificar
un único responsable cuando el daño emerge de la interacción entre los diferentes eslabones
de la cadena; el Código Civil ecuatoriano, diseñado para imputar responsabilidad a un sujeto
individual determinado, carece de mecanismos de distribución de responsabilidad entre actores
plurales con distintos niveles de control sobre el agente causante del daño, según señalan
Custers et al. (2025) y Muñoz (2025).
El tercer fenómeno es la asimetría informacional; los desarrolladores de sistemas de IA
disponen de un conocimiento técnico sobre el funcionamiento del sistema que las víctimas, los
jueces y los peritos judiciales ordinarios no poseen, lo que genera una desventaja estructural
para la parte damnificada, que debe probar un nexo causal cuya comprensión exige
conocimientos de matemática avanzada, estadística y ciencias de la computación; las reglas
probatorias del Código Orgánico General de Procesos ecuatoriano no contemplan mecanismos
específicos de facilitación probatoria para este tipo de litigios, circunstancia que agrava la
situación de la víctima, como documentan Kostrzewa y Nowak (2022) y Aguas-Yáñez et al.
(2024).
El cuarto fenómeno es la obsolescencia del concepto de culpa para los daños producidos por
IA autónoma; cuando un sistema de IA adopta una decisión dañosa en ejercicio de su
capacidad de aprendizaje autónomo, no existe un comportamiento humano voluntario al que
pueda aplicarse el juicio de culpabilidad, ya que el sistema no actúa con negligencia ni con
dolo, sino conforme a sus propios parámetros adaptativos, los cuales pueden derivar en
consecuencias que ningún actor humano previó ni pudo prever razonablemente; la aplicación
de los conceptos de culpa leve, culpa grave y dolo del artículo 29 del Código Civil a este
escenario resulta jurídicamente forzada y prácticamente ineficaz, en la línea que sostienen
Narváez-López (2019), Jácome Aguirre et al. (2023) y Díaz y Mitrani (2025).
El quinto fenómeno es la laguna normativa de cobertura; el Ecuador no dispone de una
normativa específica sobre IA, ya sea en forma de ley general o de regulación sectorial, y la
Ley Orgánica de Protección de Datos Personales, promulgada en 2021, si bien ofrece
herramientas para el tratamiento de datos personales por sistemas algorítmicos, no regula la
responsabilidad civil derivada de los daños materiales o extrapatrimoniales que dichos sistemas
puedan producir; tal ausencia genera un vacío que solo puede llenarse, de manera provisional
e imperfecta, mediante la interpretación extensiva de las normas del Código Civil, con todos los
Revista Multidisciplinaria Perspectivas Investigativas
Multidisciplinary Journal Investigative Perspectives
Vol. 6(1), 47-58, 2026
La responsabilidad civil objetiva por daños derivados de la Inteligencia Artificial: Un análisis crítico frente al sistema de riesgos
del Código Civil ecuatoriano
Strict liability for damages arising from artificial intelligence: A critical analysis in light of the risk framework of the Ecuadorian
Civil Code
María Estefania Baldeon-Navarrete
Rously Eedyah Atencio-González
Geovanna Michelle Nájera-Tello
Esperanza Jamilet Vera-Anchundia
53
riesgos de inseguridad jurídica que ello conlleva, según advierten Gallegos-Unda et al. (2025) y
Orozco-Zavala et al. (2024).
Propuesta normativa para la incorporación de la IA en el Código Civil ecuatoriano
Con base en los fenómenos identificados, la investigación formula una propuesta normativa
articulada en cinco ejes, destinada a ser incorporada en el Código Civil ecuatoriano, bien
mediante la reforma de las disposiciones existentes sobre responsabilidad extracontractual,
bien mediante la adición de un título específico relativo a la responsabilidad por actividades
tecnológicas de alto riesgo.
El primer eje propone la incorporación de una cláusula de responsabilidad objetiva agravada
para los sistemas de IA de alto riesgo; dicha cláusula establecería que quien desarrolle, opere
o utilice un sistema de IA capaz de adoptar decisiones con efectos significativos sobre la vida,
la integridad física, el patrimonio o los derechos fundamentales de terceros, responderá por los
daños causados por el funcionamiento de dicho sistema con independencia de la existencia de
culpa, bastando la acreditación del daño y del nexo causal entre el funcionamiento del sistema
y el perjuicio sufrido; la determinación de los sistemas de alto riesgo se remitiría a un
reglamento técnico actualizable, elaborado por el ente regulador competente, en consonancia
con el enfoque adoptado por la regulación europea y con los estándares internacionales de
clasificación de riesgos.
El segundo eje propone establecer un régimen de responsabilidad solidaria entre desarrollador,
operador y usuario, con derechos de regreso entre ellos proporcionales a su cuota de control
sobre el sistema; cuando no sea posible determinar cuál de los actores de la cadena
tecnológica causó el daño, todos responderían solidariamente frente a la víctima, y la cuota de
responsabilidad de cada uno se fijaría en una acción de regreso posterior, atendiendo a
criterios como la capacidad técnica de intervención sobre el sistema, el beneficio económico
obtenido y el nivel de información disponible sobre los riesgos en el momento del despliegue,
tal como proponen Custers et al. (2025) y Muñoz (2025).
El tercer eje plantea la inversión de la carga probatoria sobre el nexo causal para los daños por
sistemas de IA; conforme a esta regla, una vez que la víctima acredite el daño sufrido y la
interacción con el sistema, corresponderá al demandado demostrar que el daño no fue
causado por el funcionamiento del sistema o que este operó dentro de los parámetros de
seguridad exigidos por la normativa aplicable; la inversión se justifica en la asimetría
informacional que caracteriza estos litigios y en el principio procesal de facilidad probatoria, que
atribuye la carga de probar a quien tiene mejor acceso a los medios de prueba, en la línea que
sustentan Bottomley y Thaldar (2023) y Wang y Zhou (2025).
El cuarto eje propone la creación de un fondo de garantía para víctimas de daños por IA, de
carácter subsidiario, que cubra los supuestos en que el responsable sea insolvente o no pueda
ser identificado; este fondo se financiaría mediante un sistema de contribuciones obligatorias a
cargo de los desarrolladores y operadores de sistemas clasificados como de alto o medio
riesgo, proporcionales al volumen de negocio generado por la actividad y al nivel de riesgo del
sistema desplegado; el mecanismo cuenta con precedentes en el ámbito de los accidentes de
tránsito en varios países latinoamericanos, por lo que su extensión al campo de la IA resulta
jurídicamente coherente con la tradición del derecho civil de la región.
El quinto eje propone incorporar una obligación de transparencia y auditabilidad como
condición de responsabilidad atenuada; los desarrolladores y operadores de sistemas de IA
que hayan cumplido con los deberes de registro, documentación, auditoría independiente y
comunicación de riesgos previstos en la normativa podrían beneficiarse de un gimen de
responsabilidad limitada cuantitativamente, lo que busca equilibrar la protección de las víctimas
con el incentivo para el desarrollo responsable de tecnologías de IA, evitando que un régimen
de responsabilidad ilimitada restrinja la innovación tecnológica en el Ecuador, en los términos
que orientan Reed (2018) y Marchisio (2021).
Revista Multidisciplinaria Perspectivas Investigativas
Multidisciplinary Journal Investigative Perspectives
Vol. 6(1), 47-58, 2026
La responsabilidad civil objetiva por daños derivados de la Inteligencia Artificial: Un análisis crítico frente al sistema de riesgos
del Código Civil ecuatoriano
Strict liability for damages arising from artificial intelligence: A critical analysis in light of the risk framework of the Ecuadorian
Civil Code
María Estefania Baldeon-Navarrete
Rously Eedyah Atencio-González
Geovanna Michelle Nájera-Tello
Esperanza Jamilet Vera-Anchundia
54
DISCUSIÓN
Los resultados del metaanálisis permiten establecer un diálogo productivo con la teoría y con
los precedentes del derecho comparado; la constatación del fenómeno de causalidad difusa
confirma la tesis de Čerka et al. (2015), quienes señalaron desde fecha temprana que la
causalidad es el nudo gordiano de la responsabilidad por IA, tesis que se complementa con las
aportaciones más recientes de Erkan y Biswas (2025), quienes subrayan que la difusión causal
se agrava a medida que los sistemas de IA incorporan capacidades de aprendizaje no
supervisado; el Código Civil ecuatoriano, estructurado sobre una noción de causalidad directa y
lineal, no ofrece herramientas adecuadas para tratar esta realidad sin reformas sustantivas.
El fenómeno de fragmentación subjetiva de la responsabilidad dialoga directamente con la
propuesta de Custers et al. (2025), quienes han acuñado el concepto de «lagunas de
responsabilidad» para referirse a los espacios normativos en los que ningún actor de la cadena
tecnológica puede ser considerado responsable conforme a las reglas vigentes; la propuesta
de responsabilidad solidaria con derechos de regreso que se formula en esta investigación
recoge la intuición de estos autores y la adapta a la tradición civilista ecuatoriana, que ya
conoce la solidaridad como mecanismo de protección reforzada de las víctimas en otros
ámbitos del derecho privado.
El debate sobre la obsolescencia de la culpa como fundamento de la imputación encuentra en
esta investigación una resonancia particular con la propuesta de Marchisio (2021), quien
defiende la adopción de reglas de responsabilidad sin culpa como la solución más coherente
con el principio de precaución que debe guiar el despliegue de tecnologías transformadoras; la
resistencia doctrinal a esta propuesta, que teme el efecto desincentivador sobre la innovación,
ha sido matizada en estudios empíricos recientes, los cuales no han encontrado evidencia de
que los regímenes de responsabilidad objetiva reduzcan de manera significativa la inversión en
innovación tecnológica cuando se acompañan de mecanismos de seguro obligatorio, según
documentan Díaz y Mitrani (2025).
La propuesta de inversión de la carga probatoria se alinea, a su vez, con las tendencias del
derecho comparado analizadas por Bottomley y Thaldar (2023) en el ámbito de la salud y por
Wang y Zhou (2025) en relación con los sistemas de IA de gran escala; ambos estudios han
demostrado que la inversión de la carga probatoria, combinada con una obligación de
transparencia sobre el funcionamiento del sistema, constituye el mecanismo más eficaz para
reducir la asimetría informacional que caracteriza a los litigios de responsabilidad por IA.
La comparación con el modelo europeo revela que el Ecuador podría beneficiarse de adoptar
un enfoque regulatorio basado en la clasificación de riesgos, similar al del Reglamento de IA de
la Unión Europea; con todo, es preciso advertir sobre la necesidad de adaptar este modelo a
las condiciones específicas del contexto ecuatoriano, que incluyen una capacidad institucional
de supervisión más limitada, un sector de desarrollo tecnológico incipiente y una ciudadanía
con desigual acceso a las tecnologías digitales, pues la trasposición acrítica de modelos
europeos sin esta adaptación podría generar normas inaplicables o que favorezcan a los
actores tecnológicos en detrimento de los derechos de las personas, tal como advierten
Solaiman y Malik (2025) y Gallegos-Unda et al. (2025).
La discusión permite también identificar una tensión no resuelta en la literatura entre la
necesidad de proteger a las víctimas de daños por IA y la de no restringir el desarrollo
tecnológico mediante un régimen de responsabilidad excesivamente severo; la propuesta
formulada en esta investigación intenta articular una solución de equilibrio mediante el
esquema de responsabilidad diferenciada según el nivel de riesgo del sistema, la obligación de
transparencia como condición de atenuación y la creación de un fondo de garantía subsidiario,
esquema que traduce al marco del derecho civil ecuatoriano las mejores prácticas identificadas
en la literatura internacional, con pleno respeto a sus principios y a su tradición dogmática, en
la línea que orientan Concha-Flores (2024) y Parra-Sepúlveda y Concha-Machuca (2021).
Revista Multidisciplinaria Perspectivas Investigativas
Multidisciplinary Journal Investigative Perspectives
Vol. 6(1), 47-58, 2026
La responsabilidad civil objetiva por daños derivados de la Inteligencia Artificial: Un análisis crítico frente al sistema de riesgos
del Código Civil ecuatoriano
Strict liability for damages arising from artificial intelligence: A critical analysis in light of the risk framework of the Ecuadorian
Civil Code
María Estefania Baldeon-Navarrete
Rously Eedyah Atencio-González
Geovanna Michelle Nájera-Tello
Esperanza Jamilet Vera-Anchundia
55
Cabe señalar, por último, que la reforma normativa, siendo indispensable, no es suficiente por
sola; la eficacia del régimen de responsabilidad civil por daños de IA depende también del
fortalecimiento de las capacidades técnicas del sistema judicial ecuatoriano para comprender y
valorar la evidencia tecnológica, de la formación especializada de juezas y jueces en derecho
de las tecnologías y del desarrollo de una cultura jurídica de la precaución frente a las
innovaciones de alto impacto social; sin estas condiciones habilitantes, el mejor diseño
normativo corre el riesgo de quedar como una declaración de principios sin traducción práctica
en la protección efectiva de los derechos de las víctimas, según señalan Zabala-Leal y Gómez-
Macfarland (2024) y Narváez-López (2019).
CONCLUSION
El análisis de la responsabilidad civil objetiva por daños derivados de la inteligencia artificial
frente al sistema de riesgos del Código Civil ecuatoriano evidencia que el marco normativo
vigente resulta estructuralmente insuficiente para atribuir responsabilidad cuando el agente
causante del daño es un sistema algorítmico dotado de capacidades de aprendizaje autónomo;
los artículos 2214 y 2229 del Código Civil, concebidos para regular conductas humanas
voluntarias y actividades peligrosas de control previsible, no contemplan la causalidad difusa
propia de los sistemas de inteligencia artificial, la fragmentación subjetiva entre desarrolladores,
operadores y usuarios, ni la asimetría informacional que coloca a la víctima en una posición de
desventaja probatoria insuperable dentro de las reglas procesales ordinarias; tal brecha
normativa no constituye una deficiencia menor susceptible de corrección hermenéutica, sino
una laguna de cobertura que compromete la seguridad jurídica de las personas y desalienta el
desarrollo tecnológico responsable en el país.
Frente a ese escenario, la literatura revisada converge en señalar que la responsabilidad
objetiva, estructurada sobre el principio de que quien introduce un riesgo en la sociedad debe
asumir las consecuencias dañosas con independencia de su diligencia, representa el
mecanismo más coherente con la naturaleza tecnológica del agente causante; su aplicación
eficaz en el contexto ecuatoriano exige, no obstante, complementarla con un régimen de
responsabilidad solidaria entre los actores de la cadena tecnológica, la inversión de la carga
probatoria sobre el nexo causal, la creación de un fondo de garantía subsidiario para víctimas
de responsables insolventes o no identificables, y una obligación de transparencia y
auditabilidad cuyo cumplimiento opere como condición de atenuación cuantitativa de la
responsabilidad; este conjunto de mecanismos, articulados de manera sistemática, traduce al
marco del derecho civil ecuatoriano las prácticas más consolidadas del derecho comparado,
con pleno respeto a la tradición dogmática civilista de la región.
La reforma normativa que incorpore estos ejes, bien mediante la modificación del Código Civil o
mediante una ley especial complementaria de responsabilidad por actividades tecnológicas de
alto riesgo, constituye una condición necesaria pero no suficiente; su eficacia práctica depende
del fortalecimiento de las capacidades técnicas del sistema judicial ecuatoriano para valorar
evidencia algorítmica, de la formación especializada de juezas y jueces en derecho de las
tecnologías y del desarrollo institucional de un ente regulador con competencia técnica para
clasificar los sistemas de inteligencia artificial según su nivel de riesgo; sin estas condiciones
habilitantes, el mejor diseño normativo quedará reducido a una declaración de principios sin
traducción efectiva en la protección de los derechos de quienes sufren los daños que estos
sistemas producen.
FINANCIAMIENTO
No monetario
CONFLICTO DE INTERÉS
No existe conflicto de interés con personas o instituciones ligadas a la investigación.
Revista Multidisciplinaria Perspectivas Investigativas
Multidisciplinary Journal Investigative Perspectives
Vol. 6(1), 47-58, 2026
La responsabilidad civil objetiva por daños derivados de la Inteligencia Artificial: Un análisis crítico frente al sistema de riesgos
del Código Civil ecuatoriano
Strict liability for damages arising from artificial intelligence: A critical analysis in light of the risk framework of the Ecuadorian
Civil Code
María Estefania Baldeon-Navarrete
Rously Eedyah Atencio-González
Geovanna Michelle Nájera-Tello
Esperanza Jamilet Vera-Anchundia
56
AGRADECIMIENTOS
Al sistema de justicia ecuatoriano.
REFERENCIAS
Aguas-Yáñez, F. J., pez-Cando, D. P., Moreano-Santos, A. X., & Piray-Rodríguez, P. O.
(2024). La inteligencia artificial en la judicatura penal: Evaluación de beneficios y retos
[Artificial intelligence in the criminal judiciary: Assessing benefits and challenges].
Verdad y Derecho. Revista Arbitrada de Ciencias Jurídicas y Sociales, 3(especial4),
178184. https://doi.org/10.62574/cgnnb341
Bottomley, D., & Thaldar, D. (2023). Liability for harm caused by AI in healthcare: An overview
of the core legal concepts. Frontiers in Pharmacology, 14, 1297353.
https://doi.org/10.3389/fphar.2023.1297353
Čerka, P., Grigienė, J., & Sirbikytė, G. (2015). Liability for damages caused by artificial
intelligence. Computer Law & Security Review, 31(3), 376389.
https://doi.org/10.1016/j.clsr.2015.03.008
Concha-Flores, L. F. (2024). Inteligencia artificial, enfoque de riesgos y responsabilidad civil:
Aspectos centrales para una razonabilidad práctica [Artificial intelligence, risk-based
approach, and civil liability: Key aspects for practical reasonableness]. Sapientia Iuris,
(1), 140169. https://doi.org/10.5281/zenodo.14735552
Custers, B., Lahmann, H., & Scott, B. I. (2025). From liability gaps to liability overlaps: Shared
responsibilities and fiduciary duties in AI and other complex technologies. AI & Society,
40(5), 40354050. https://doi.org/10.1007/s00146-024-02137-1
Díaz, M. P., & Mitrani, C. (2025). La responsabilidad por daños causados por el uso de IA:
¿Responsabilidad objetiva, subjetiva o híbrida? [Liability for damages caused by the
use of AI: Strict, subjective, or hybrid liability?]. Revista Jurídica de la Universidad de
San Andrés, (20), 169189. https://doi.org/10.64928/cpp9nf62
Erkan, F., & Biswas, T. D. (2025). Artificial intelligence and liability for damages. International
Journal of Social Sciences, 9(41), 297343. https://doi.org/10.52096/usbd.9.41.16
Escobar-Escobar, D. A., Luna-Sánchez, A. C., Viteri-Tacoamán, S. A., & García-Sanipatín, L.
R. (2024). Efectos de la inteligencia artificial en la administración de justicia [Effects of
artificial intelligence on the administration of justice]. Verdad y Derecho. Revista
Arbitrada de Ciencias Jurídicas y Sociales, 3(especial2), 4149.
https://doi.org/10.62574/mr9wjn56
Gallegos-Unda, V. C., Proaño-Reyes, G. M., & Castro-Sánchez, F. J. (2025). Beneficios y
riesgos de la inteligencia artificial en la protección de datos personales en Ecuador
[Benefits and risks of artificial intelligence in personal data protection in Ecuador].
Noesis, 7(esp2), 13301347. https://doi.org/10.35381/noesisin.v7i2.658
Guamán-Quinzo, C. del R., & Batista-Hernández, N. (2024). Modificación del Código Civil
ecuatoriano para incrementar el reconocimiento del divorcio incausado [Amendment of
the Ecuadorian Civil Code to increase recognition of no-fault divorce]. Revista Lex,
7(27), 15261545. https://doi.org/10.33996/revistalex.v7i27.260
Guanoluisa-Almache, F. A., Crespo-Berti, L. A., & Liscano-Chapeta, C. J. (2021). Principio
constitucional de responsabilidad judicial en el Distrito de Imbabura 20152021
[Constitutional principle of judicial liability in the Imbabura District 20152021]. Dilemas
Contemporáneos: Educación, Política y Valores, 8(spe4), 00051.
https://doi.org/10.46377/dilemas.v8i.2804
Revista Multidisciplinaria Perspectivas Investigativas
Multidisciplinary Journal Investigative Perspectives
Vol. 6(1), 47-58, 2026
La responsabilidad civil objetiva por daños derivados de la Inteligencia Artificial: Un análisis crítico frente al sistema de riesgos
del Código Civil ecuatoriano
Strict liability for damages arising from artificial intelligence: A critical analysis in light of the risk framework of the Ecuadorian
Civil Code
María Estefania Baldeon-Navarrete
Rously Eedyah Atencio-González
Geovanna Michelle Nájera-Tello
Esperanza Jamilet Vera-Anchundia
57
Jácome-Aguirre, G., Pérez-Rosales, D., & Arguello-Almeida, A. (2023). ¿Por qué el Código Civil
ecuatoriano equipara la culpa grave y el dolo? Análisis jurídico sobre la culpabilidad, su
aplicación y finalidad [Why does the Ecuadorian Civil Code equate gross negligence
and intent? Legal analysis of culpability, its application, and purpose]. USFQ Law
Review, 10(2). https://doi.org/10.18272/ulr.v10i2.3000
Jaramillo-Valdivieso, J. A. (2024). Los robots como animales desde la responsabilidad civil
[Robots as animals from the perspective of civil liability]. Debate Jurídico Ecuador, 7(2),
231243. https://doi.org/10.61154/dje.v7i2.3420
Kostrzewa, Ł., & Nowak, R. (2022). Polish court ruling classification using deep neural
networks. Sensors, 22(6), 2137. https://doi.org/10.3390/s22062137
Marchisio, E. (2021). In support of "no-fault" civil liability rules for artificial intelligence. SN Social
Sciences, 1(2), 54. https://doi.org/10.1007/s43545-020-00043-z
Muñoz, R. A. (2025). Responsabilidad civil por el uso de IA en plataformas digitales [Civil
liability for the use of AI in digital platforms]. Anuario del Centro de Investigaciones
Jurídicas y Sociales, 23(23), 457471.
Narváez-López, C. (2019). La inteligencia artificial entre la culpa, la responsabilidad objetiva y
la responsabilidad absoluta en los sistemas jurídicos del derecho continental y
anglosajón [Artificial intelligence between fault, strict liability, and absolute liability in civil
law and common law systems].
Orozco-Zavala, E. R., Amores-Castillo, A. L., Donoso-Beltrán, W. J., & Silva-Andrade, G. J.
(2024). La inteligencia artificial (IA) como amenaza del sistema jurídico [Artificial
intelligence (AI) as a threat to the legal system]. Verdad y Derecho. Revista Arbitrada
de Ciencias Jurídicas y Sociales, 3(especial4), 185192.
https://doi.org/10.62574/cmftgr38
Parra-Sepúlveda, D., & Concha-Machuca, R. (2021). Inteligencia artificial y derecho:
Problemas, desafíos y oportunidades [Artificial intelligence and law: Problems,
challenges, and opportunities]. Vniversitas, 70, 125.
https://doi.org/10.11144/Javeriana.vj70.iadp
Reed, C. (2018). How should we regulate artificial intelligence? Philosophical Transactions of
the Royal Society A, 376(2128), 112. https://www.jstor.org/stable/26601758
Rodríguez-Corría, R., & Alba-Cazales, D. (2025). La responsabilidad civil derivada del uso de
sistemas de inteligencia artificial: Un conflicto actual y preocupante [Civil liability arising
from the use of artificial intelligence systems: A current and concerning conflict]. Debate
Jurídico Ecuador, 8(3), 512534. https://doi.org/10.61154/dje.v8i3.4162
Schoolcraft, D., Meltzer, A. C., Sangal, R., Terry, A. T., Robertson, K., Buckland, D., Motalib, S.,
Genes, N., Vukmir, R., Waseem, T., & ACEP AI Task Force. (2026). Health Insurance
Portability and Accountability Act liability in the age of generative artificial intelligence.
Journal of the American College of Emergency Physicians Open, 7(2), 100317.
https://doi.org/10.1016/j.acepjo.2025.100317
Solaiman, B., & Malik, A. (2025). Regulating algorithmic care in the European Union: Evolving
doctorpatient models through the Artificial Intelligence Act and liability directives.
Medical Law Review, 33(1), fwae033. https://doi.org/10.1093/medlaw/fwae033
Wang, Y., & Zhou, Z. (2025). Medical damage liability risk of medical AI: From the perspective
of DeepSeek's large-scale deployment in Chinese hospitals. Frontiers in Public Health,
13, 1726205. https://doi.org/10.3389/fpubh.2025.1726205
Zabala-Balladares, K. L., Moncayo-Morlas, N. K., Jiménez-Andrade, W. G., & Ros-Álvarez, D.
(2024). Ética y responsabilidad en el uso de la inteligencia artificial en procesos
judiciales [Ethics and responsibility in the use of artificial intelligence in judicial
Revista Multidisciplinaria Perspectivas Investigativas
Multidisciplinary Journal Investigative Perspectives
Vol. 6(1), 47-58, 2026
La responsabilidad civil objetiva por daños derivados de la Inteligencia Artificial: Un análisis crítico frente al sistema de riesgos
del Código Civil ecuatoriano
Strict liability for damages arising from artificial intelligence: A critical analysis in light of the risk framework of the Ecuadorian
Civil Code
María Estefania Baldeon-Navarrete
Rously Eedyah Atencio-González
Geovanna Michelle Nájera-Tello
Esperanza Jamilet Vera-Anchundia
58
processes]. Verdad y Derecho. Revista Arbitrada de Ciencias Jurídicas y Sociales,
3(especial2), 239246. https://doi.org/10.62574/bdvzg165
Zabala-Leal, T. D., & mez-Macfarland, C. A. (2024). La responsabilidad civil y la ética en la
inteligencia artificial: Una revisión sistemática de las ideas del período 20182023 [Civil
liability and ethics in artificial intelligence: A systematic review of ideas from 2018
2023]. IUSTA, 60, 6693. https://doi.org/10.15332/25005286.9964
Zúñiga-Hurtado, E. P., & Hurtado-Macías, N. de J. (2023). La acción rescisoria pauliana desde
el código civil ecuatoriano [The Paulian rescissory action under the Ecuadorian Civil
Code]. Iustitia Socialis, 8(14), 1728. https://doi.org/10.35381/racji.v8i14.2414
Derechos de autor: 2026 Por los autores. Este artículo es de acceso abierto y distribuido según los términos y
condiciones de la licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC
BY-NC-SA 4.0)
https://creativecommons.org/licenses/by-nc-sa/4.0/