Alweer een tijdje geleden heb ik mijn zeer uitgesproken mening over AI uiteengezet. Voor de mensen die er geen zin in hebben om dat blogje opnieuw te lezen: ik ben geen fan. Het onethische gebruik van datasets waar geen toestemming voor is gegeven is iets dat we moeten bestrijden. Alleen dan kan het gebruik van AI als tool de juiste kant op gaan. Dan hoeven we ons alleen nog maar zorgen te maken over mensen die de AI zelf verkeerd gebruiken.
Er gaan al grappen in de rondte over het pranken van bots die open AI tools gebruiken. Hoewel de gebruikte tools niet in de ‘magische woorden’ zullen trappen, is de gedachte mooi. Kunnen we AI misbruik bestrijden met een codewoord? Kan een enkele zin een verhaal beschermen tegen gebruik in AI datasets?
Je kan het niet voorkomen
Het simpele antwoord is deprimerend: nee. We zitten nog te wachten op een AI met een ethische gedachtengang. Op het moment zijn deze tools nog niets meer dan voorspellend. Door wat ze voorgeschoteld krijgen, leert de tool ongeveer wat voor antwoord verwacht wordt. Op basis daarvan kan het hulp bieden en je leven eenvoudiger maken. Ethische vraagstukken kan het zelf echter nog niet oplossen.
Daarom zijn de situaties in het plaatje hierboven ook volledig fictief. Hoewel we graag geloven dat een AI in zoiets simpels zou trappen, is dat niet wat er gebeurt. Hele knappe koppen verdienen een hoop geld om precies dit soort dingen te voorkomen en de tool weet niet beter. Ze houden de input tegen hun code aan en vertellen wat ze denken dat we willen horen.
Zo zit het ook met datasets waarin expliciet staat dat de dataset niet gebruikt mag worden. Het heeft ongeveer evenveel nut als een bordje met ‘niet stelen’ bij een bak vol juwelen. Iemand die daar lak aan heeft, laat zich niet tegenhouden.
En de AI? Die gebruikt de dataset wel. Ze weten niet beter.
Maar je kan het wel bestrijden
Toch is dit precies de manier waarop uitgevers nu het ongewenste gebruik van hun teksten tegen proberen te gaan. De eerste tekst in elk boek is de copyright pagina. Daarop staat een hoop legale informatie, inclusief schrijver, editor, de druk van het boek…
En bij een hoop Nederlandse boeken nu ook de melding dat het boek niet voor gebruik in datasets is.
Deze zin voelt heel erg aan als het bordje bij de juwelen. Het gaat de mensen die illegale datasets samenstellen en verkopen niet tegenhouden. Ze kunnen het heel eenvoudig negeren… maar het is heel eenvoudig te detecteren. Een enkele zoekopdracht kan je zo vertellen of een dataset een dergelijke waarschuwing bevat.
Je zou het zelfs aan je AI model kunnen vragen om te achterhalen.
En zo kunnen overhoudsinstanties het ook. Gezien AI-modellen tegenwoordig openheid van zaken moeten geven over hun datasets, zijn deze te doorzoeken. De modellen die onethisch verkregen data hebben gebruikt, vallen op die manier snel genoeg door de mand. Zoals het artikel het al aangeeft: de aanbieders van de AI tool zelf kunnen daar de nodige boetes voor ontvangen. Dat is een manier van bestrijden.
Dat zal de dieven wel twee keer na laten denken.
Even realistisch, nu
Zoals altijd, is het vormen van beleid niet het einde. De wereld is al druk genoeg met serieuze zaken. Serieuzere zaken dan onethisch verkregen datasets, en er zijn een hoop manieren om legale acties te vertragen. Zelfs als er direct gehandeld wordt, zal het nog jaren duren voor bedrijven die bewust onethisch verkregen datasets gebruiken worden aangepakt. Op de korte termijn zal het zelfs een last zijn. AI tools met ethisch verkregen sets zullen hier hinder aan ondervinden. Reputabele bedrijven zullen misschien onnodig hun zaken op orde stellen terwijl het gajes gewoon verder gaat.
Maar het is weer een stap in de juiste richting. Een nieuw middel voor schrijvers om hun harde werk te beschermen. Bovenal: het is weer erkenning voor de schrijvers dat hun uitgeverijen achter ze staan. Een geruststelling dat er voor je gevochten wordt als schrijver, ook als je er zelf niet zo bewust van bent. Het bestrijden van onethisch gebruik, gebeurt ook op dat soort kleine manieren.
En zo wordt de wereld weer een iets fijnere plek.