AI: een analyse van aansprakelijkheids-
en verzekeringsaspecten
€165,00 excl. btw
WEBINAR ON DEMAND
Mr. Sandra Lodewijckx en mr. Bastiaan Bruyndonckx (Lydian)
2 uren / 2 punten (OVB – IBJ – ITAA – FSMA)
Beschrijving
Webinar on demand:
- U krijgt onmiddellijk na inschrijving toegang tot de webinar (u vindt deze terug in uw ‘Account’), de factuur volgt later
- Bekijk deze opname op uw eigen tempo – waar, wanneer en zo vaak u wilt tot 3 maanden na inschrijving
- Inclusief slides en uitgebreide cursus
- Video en audio van topkwaliteit
- KMO portefeuille
Wenst u meerdere opleidingen te volgen bij LegalLearning?
Overweeg dan zeker ons Voordeelpakket (5 webinars on demand naar keuze) of
ons Abonnement (een jaar lang onbeperkte toegang tot alle live en on demand webinars)
Bij het gebruik van AI wordt niet zelden te weinig een analyse gemaakt inzake aansprakelijkheid en daarbij aansluitend de mogelijkheid zich te verzekeren tegen bepaalde risico’s. Zo is het bijvoorbeeld opvallend dat er ook in België weinig te lezen valt over AI in de Memorie van Toelichting bij Boek 6. Op het eerste zicht kan enkel art. 6.18 (oorzakelijk verband) en mogelijke impact hebben, meer bepaald ‘§ 2. Er is evenwel geen aansprakelijkheid indien het verband tussen het tot aansprakelijkheid leidende feit en de schade dermate verwijderd is dat het kennelijk onredelijk zou zijn de schade toe te rekenen aan de persoon die wordt aangesproken.’ Maar hier stelt zich onmiddellijk de vraag hoe dit moet begrepen te worden bij schade veroorzaakt door AI, want de schade zal niet altijd voorzienbaar zijn door de autonomie van de systemen…?
Concreet gezien dient men dus in België voorlopig beroep doen op de algemene regels van het Burgerlijk Wetboek en de Wet Productaansprakelijkheid voor schade door AI-systemen. Gebruikers van AI-systemen moeten dus zorg dragen voor controle, transparantie en bescherming van gegevens en zich eventueel vrijwillig verzekeren tegen AI-gerelateerde risico’s
Tijdens deze webinar on demand geven mr. Bastiaan Bruyndonckx en mr. Sandra Lodewijckx daarom een praktijkgericht overzicht van de huidige en toekomstige stand van zaken inzake aansprakelijkheids- en verzekeringsaspecten betreffende het gebruik van AI-systemen.
DOCENTEN
- Mr. Sandra Lodewijckx, advocaat-vennoot Lydian / gastdocent UAntwerpen
- Mr. Bastiaan Bruyndonckx, advocaat-vennoot Lydian
DATUM OPNAME
- 21/11/2025
PROGRAMMA
Aansprakelijkheid bij AI-gebruik
- Toepassing van bestaande regelgeving
Daar er in België nog geen specifieke wetgeving is die aansprakelijkheid bij schade door AI-systemen expliciet regelt geldt in principe het Belgische Burgerlijk Wetboek voor contractuele en buitengewone schade veroorzaakt door AI-systemen.
Dit betekent dat de algemene regels inzake contractuele en extracontractuele aansprakelijkheid van toepassing zijn, maar hoe zijn die concreet toe te passen wat AI betreft?
- Productaansprakelijkheid
Bij schade door een “defect product” (waaronder AI-systemen kunnen vallen) kan de Wet Productaansprakelijkheid van 1991 worden ingeroepen. Dit stelt een risicoaansprakelijkheid in voor de producent, zonder dat schuld hoeft te worden bewezen, als het product niet voldoet aan de veiligheid die men redelijkerwijs mag verwachten: een analyse.
Maar kan bij schade veroorzaakt door AI, waarbij de onderneming die de AI gebruikt heeft aansprakelijk wordt gesteld, eventuele schadevergoeding door de onderneming verhaald worden op de ontwikkelaar?
- Toekomstige Europese regelgeving
De op 24 juli 2025 gepubliceerde studie “Artificial Intelligence and Civil Liability”, in opdracht van het Europees Parlement, analyseert hoe de EU omgaat met de civielrechtelijke aansprakelijkheid (civil liability) voor AI-systemen. De studie pleit voor een streng aansprakelijkheidsregime specifiek voor hoog-risico AI-systemen, waarbij één verantwoordelijke exploitant centraal staat. De EU is overgestapt van het idee om vooral harde civiele aansprakelijkheidsregels (zoals een aparte AI Liability Directive) te maken, naar het stellen van bindende ex ante (voorafgaande) verplichtingen via de AI Act: focus dus meer op preventie dan op louter schade afhandelen.
Verzekeringsaspecten
- De uitbreiding van beroepsaansprakelijkheids- of cyberverzekeringen om AI‑risico’s te dekken.
- Verplichte aansprakelijkheidsverzekering in de toekomstVoor AI-systemen met een hoog risico wordt in Europese regelgeving werd er overwogen om een verplichte aansprakelijkheidsverzekering in te voeren, vergelijkbaar met de verplichting voor motorrijtuigen. Maar deze verplichting is (nog) niet daadwerkelijk opgenomen vanwege politieke en praktische bezwaren. De op 24 juli 2025 gepubliceerde studie “Artificial Intelligence and Civil Liability”, in opdracht van het Europees Parlement, signaleert dat oorspronkelijke voorstellen (zoals de introductie van een ‘elektronisch rechtspersoon’ voor AI, verplichte verzekeringen, compensatiefondsen) onder druk staan of definitief zijn teruggetrokken vanwege gebrek aan politiek draagvlak en angst voor gefragmenteerde regelgeving tussen lidstaten.
- Best practices en vrijwillige verzekeringOdanks de afwezigheid van een wettelijke verplichting voor alle AI-systemen, kiezen steeds meer bedrijven ervoor om zich vrijwillig te verzekeren tegen AI-gerelateerde risico’s. Verzekeringsmarkt Lloyd’s biedt bijvoorbeeld specifieke polissen aan voor schade door fouten van AI-systemen, zoals reputatieschade of juridische kosten als gevolg van onjuiste AI-uitvoer.
- Sectorale aandachtspuntenIn de verzekeringssector zelf wordt AI ingezet voor risicobeoordeling en tarifering. Voor deze toepassingen gelden extra eisen onder de Europese AI-verordening, zoals het opzetten van een risicobeheersysteem, technische documentatie, en transparantie.Voor AI-systemen met een hoog risico zijn aanvullende verplichtingen van toepassing, waaronder een effectbeoordeling inzake grondrechten en mogelijke uitzonderingen op basis van het daadwerkelijke risiconiveau.
Praktische aandachtspunten voor gebruikers
- Controle en verantwoordelijkheidGebruikers van AI moeten de werking van de tools begrijpen en de controle behouden over de resultaten. Dit geldt bijvoorbeeld voor advocaten, die hun output altijd moeten controleren en verantwoordelijk blijven voor het gebruik van AI.
- Vertrouwelijkheid en gegevensbeschermingBij het gebruik van AI moeten vertrouwelijke gegevens en persoonsgegevens voldoende beschermd worden. Dit betekent onder meer pseudonimisering van gegevens en het vermijden van invoer van vertrouwelijke informatie in AI-systemen, tenzij dit in een gesloten en beveiligde omgeving gebeurt.
DOELGROEP
- advocaten en bedrijfsjuristen
- verzekeringstussenpersonen
- accountants, belastingconsulenten, bedrijfsrevisoren, fiscalisten
- financiële en algemene directies met goede vooropleiding
DEELNAMEPRIJS
€165 (excl. 21% btw) inclusief relevante documentatie.
Indien u beroep doet op de KMO-portefeuille, dient u enkel het BTW-bedrag over te schrijven. Voor de deelnameprijs, zijnde €165, kan u de KMO-portefeuille aanvragen. Het erkenningsnummer voor de KMO-portefeuille van LegalLearning is DV.O222464 (Fides Ganda BV).
ATTEST
- OVB: 2 standaardpunten
- IBJ: 2 punten
- FSMA (500207 A): 2 punten bijscholing inzake verzekeringen
- ITAA: 2 uren
Andere suggesties…
-

Bewijsrecht in ondernemingszaken:
€165,00 excl. btw Inschrijven
een praktijkgericht overzicht -

Artificiële intelligentie:
€120,00 excl. btw Inschrijven
pertinente vragen na de stemming van de AI Act -

Marketingrecht: juridisch anticiperen op de razendsnelle evoluties
€165,00 excl. btw Inschrijven -

Artificiële intelligentie in het HR-proces:
€165,00 excl. btw Inschrijven
juridische aandachtspunten





