Bekijk hoe alle politieke partijen staan tegenover deze stelling
Door de inzet van kunstmatige intelligentie wordt het steeds lastiger om echt van nep te onderscheiden. Om onze democratie en rechtsstaat beter te beschermen willen we als VVD dat het watermerken van materiaal dat gegenereerd is met behulp van kunstmatige intelligentie de norm wordt.
AI biedt ontzettend veel kansen maar ook risico’s. Transparantie staat bij deze dan ook altijd voorop. Het maken van zogenaamde deep fakes zonder voorafgaande toestemming zowel op visueel als op audiogebied is een groot probleem en strafbaar.
Het verschil tussen berichten van mensen en berichten gemaakt met kunstmatige intelligentie is bijna niet meer te zien. Dat kan grote gevolgen hebben. Daarom vindt het CDA dat het verschil duidelijk moet worden gemaakt, ook als de overheid zelf algoritmes gebruikt.
D66 wil dat de samenleving goed voorbereid is op kunstmatige intelligentie. AI biedt veel kansen, maar ook risico's omdat buitenlandse tech-bedrijven een steeds grotere invloed krijgen op ons dagelijks leven. D66 zet daar stevige controle tegenover.
Wij willen de Tweede Kamer versterken met een onderzoeksinstituut dat adviseert over de maatschappelijke gevolgen van technologische ontwikkelingen en voorstellen doet voor nieuwe regels in het digitale tijdperk. Dit kan voor de toekomst dus een uitkomst zijn.
Het moet duidelijk zijn wanneer tekst, beeld en geluid met kunstmatige intelligentie is gemaakt. Daar werken we ook op Europees niveau aan. AI-systemen moeten veilig en transparant zijn, mensenrechten respecteren, menselijke controle waarborgen en zuinig omspringen met energie en grondstoffen.
Kunstmatige intelligentie is niet enkel een kans maar brengt ook risico's met zich mee. Daarvoor zijn duidelijke wetten nodig. Transparantie over de inzet van kuntstmatige intelligentie, moet daar onderdeel van zijn.
De ontwikkelingen rond AI gaan razendsnel. De mogelijkheid om AI-gegenereerde berichten te kunnen onderscheiden van 'normale' berichten neemt snel af. Waar mogelijk moet de overheid inzichtelijk maken welke berichten gemaakt zijn met kunstmatige intelligentie.
Er moeten labels worden ontwikkeld en gehandhaafd voor alles wat "AI-generated" en "AI-assisted" is. Dit is met name belangrijk om op sociale media het vrije publieke debat te garanderen en om het maken en verspreiden van des- en misinformatie met behulp van AI te voorkomen.
We zorgen dat de positieve kansen van AI benut worden, bijvoorbeeld op het gebied van een betere gezondheidszorg en effectiever klimaatbeleid, terwijl we de risico’s beperken. Content die gemaakt is door kunstmatige intelligentie moet daarom te herkennen zijn door een watermerk of logo.
Kunstmatige intelligentie mag niet ingezet worden om de burger te misleiden. Om dat te voorkomen, dienen er duidelijke regels te worden opgesteld.
Het is belangrijk dat met name kinderen worden beschermd tegen Kunstmatige intelligentie. Zij zijn vatbaar voor misleiding door Kunstmatige Intelligentie.
Er is een groot tekort aan beleid dat de impact van kunstmatige intelligentie (AI) serieus neemt. BIJ1 wil AI beter reguleren door een instantie op te richten die mensenrechten toetsen uitoefent op AI, en strengere regels oplegt met betrekking tot het transparant gebruik van AI.
We pleiten voor een verplichting op Europees niveau voor ontwikkelaars van kunstmatige intelligentie om zichtbare en onzichtbare watermerken toe te voegen wanneer hun software wordt gebruikt om bestaande mensen na te bootsen.
Generatieve Artificiële Intelligentie (A.I.) heeft veel nuttige toepassingen, maar kan ook overtuigend nepberichten creëren. Deze realiteit maakt het noodzakelijk dat bij 'deep fakes' en andere berichten gecreëerd door A.I. aangegeven wordt dat deze kunstmatig gegenereerd zijn. piratenpartij.nl/
Het is zeer wenselijk om inzichtelijk te maken welke online berichten gebaseerd zijn op kunstmatige intelligentie.
Vertrouwen in berichtgeving is essentieel voor het doen en laten van onze samenleving. Burgers moeten het verschil kunnen zien tussen nepberichten en nepnieuws. LEF pleit voor lessen mediawijsheid. Ook voor ouderen: zij zijn minder digitaal vaardig en worden sneller slachtoffer van misinformatie.
Er moet zeker gekeken worden naar de inzet van AI binnen de samenleving. Of dit de beste oplossing is betwijfelt Splinter. De maatschappelijke discussie moet wel worden gevoerd.
De overheid dient goede informatie te verstrekken en de inwoners te beschermen tegen eventuele risico's.
Om de kansen en risico's in te schatten, is het noodzakelijk dat kunstmatige intelligentie eerst goed in kaart wordt gebracht.
We zijn niet voor regulering van online berichten. De PVV is altijd anti-censuur geweest.
FVD vindt dat de overheid het internet niet moet reguleren.
BVNL is voor vrijheid en minder overheidsbemoeienis.
Het is een illusie te denken dat de overheid onze privacy kan beschermen. De beste bescherming komt voort uit eigen verantwoordelijkheid. Laster, al dan niet met behulp van AI, is een vorm van agressie waar tegen men zich kan wapenen via juridische middelen.
SvN is van mening dat de steeds groter wordende macht van AI gecontroleerd moet worden, maar ziet hierin geen taak voor de overheid alleen. SvN wil voorkomen dat de regering geen monopolie moet krijgen op de regulering rondom AI.