Het nieuwe AI-model van Lightricks draait lokaal met Nvidia Tech

17

Lightricks heeft een nieuw AI-videomodel onthuld, gebouwd in samenwerking met Nvidia, dat opvalt doordat het rechtstreeks op gebruikersapparaten draait in plaats van te vertrouwen op cloudverwerking. Dit markeert een belangrijke stap voorwaarts in de AI-videogeneratie, die zowel verbeterde privacy als snellere prestaties biedt. Het model, gedemonstreerd op CES 2026, is ontworpen voor professionele makers en biedt mogelijkheden die veel concurrenten overtreffen op het gebied van controle en uitvoerkwaliteit.

Belangrijkste mogelijkheden en functies

Het Lightricks-model kan AI-videoclips genereren van maximaal 20 seconden met 50 frames per seconde, inclusief native audio. Cruciaal is dat het de 4K-resolutie ondersteunt, waardoor het haalbaar is voor professionele projecten. In tegenstelling tot Veo 3 van Google of Sora van OpenAI is de optimalisatie op het apparaat van dit model het bepalende kenmerk. De focus ligt op het bieden van een veilige en efficiënte workflow aan makers.

Wat “open gewicht” betekent

De term ‘open’ in AI verwijst vaak naar ‘open-weight’-modellen, wat betekent dat ontwikkelaars toegang hebben tot de bouwstenen van de AI, maar niet noodzakelijkerwijs tot de volledige, volledig transparante broncode. Zie het als een recept voor een taart: je kent de ingrediënten, maar niet de exacte afmetingen. Het model van Lightricks is beschikbaar op platforms als HuggingFace en ComfyUI, waardoor bredere experimenten en aanpassingen mogelijk zijn.

Waarom lokale verwerking belangrijk is

Het genereren van AI-video’s is rekenintensief. De meeste modellen vereisen krachtige datacentercomputers om resultaten van hoge kwaliteit te produceren, waardoor gebruikers gedwongen worden te vertrouwen op cloudservices. Het model van Lightricks, dat gebruik maakt van de RTX-chips van Nvidia, doorbreekt deze afhankelijkheid. Het lokaal uitvoeren van AI heeft verschillende voordelen:

  • Gegevenscontrole: Creators behouden de volledige controle over hun gegevens, waardoor mogelijk misbruik door grote technologiebedrijven wordt vermeden. Dit is vooral van cruciaal belang voor studio’s die intellectueel eigendom beschermen.
  • Snelheid: Lokale verwerking kan de generatietijden aanzienlijk verkorten. Typische AI-videoprompts duren 1-2 minuten; een snellere doorlooptijd betekent tijd- en kostenbesparing.
  • Beveiliging: Uitvoering op het apparaat minimaliseert het risico op datalekken of ongeautoriseerde toegang tot gevoelige inhoud.

Het uitvoeren van AI-modellen op uw apparaat, met de juiste apparatuur, kan u ook sneller resultaten opleveren. Het genereren van de gemiddelde AI-videoprompt duurt 1 tot 2 minuten, dus het verminderen ervan kan tijd en geld helpen besparen, wat twee van de sterkste argumenten zijn voor videomakers om AI in hun werk te integreren.

De opkomst van lokale AI-videoverwerking is een natuurlijke ontwikkeling, omdat rekenkracht toegankelijker wordt. De trend duidt op een verschuiving naar een grotere onafhankelijkheid van makers en een veiliger AI-ecosysteem.