Rol van AI in therapie pedofilie

Avondland

Well-known member
Toch wel met de belangrijke nuance dat er zoiets bestaat als niet-strafbare fetisjen en strafbare vormen van wat uiteindelijk niet gewoon pornografie maar ook misbruik is.
Kinderpornografie impliceert dat er echte kinderen "poseren" of "handelingen" moeten ondergaan en het bezitten ervan wordt terecht beschouwd als een crimineel feit (net als bestialiteit). Er zijn inderdaad niet-strafbare fetisjen die als "raar" worden bestempeld.

Hoe dat zit met AI generated imaging is weer een andere discussie: je misbruikt daar geen kinderen, maar het zit in een moreel zéér bedenkelijk gebied.
 
Toch wel met de belangrijke nuance dat er zoiets bestaat als niet-strafbare fetisjen en strafbare vormen van wat uiteindelijk niet gewoon pornografie maar ook misbruik is.
Dat klopt, maar uw hersenen gaan dat verschil niet kiezen natuurlijk. Ik vind bvb dat pedofielen niet per definitie in een gevangenis terecht moeten komen, maar mensen die er naar handelen wel.
En in het geval van kinderporno is het bezit de oorzaak waarom het bestaat, en ben je uiteindelijk mee verantwoordelijk voor het misbruik, en is het bezit dus al terecht strafbaar.

AI generated imaging, daar ben ik zelf nog niet uit of ik dat strafbaar of niet zou maken.
 
Kinderpornografie impliceert dat er echte kinderen "poseren" of "handelingen" moeten ondergaan en het bezitten ervan wordt terecht beschouwd als een crimineel feit (net als bestialiteit). Er zijn inderdaad niet-strafbare fetisjen die als "raar" worden bestempeld.

Hoe dat zit met AI generated imaging is weer een andere discussie: je misbruikt daar geen kinderen, maar het zit in een moreel zéér bedenkelijk gebied.
Ook virtuele afbeeldingen zoals een tekening zijn strafbaar. Wat, net zoals het verbod op bestialiteit, toch wel aantoont dat het ons niet enkel te doen is om het feit dat er slachtoffers zijn, maar dat we bepaalde fetisjen bestraffen omdat we ze moreel verdorven vinden.
 
Ook virtuele afbeeldingen zoals een tekening zijn strafbaar. Wat, net zoals het verbod op bestialiteit, toch wel aantoont dat het ons niet enkel te doen is om het feit dat er slachtoffers zijn, maar dat we bepaalde fetisjen bestraffen omdat we ze moreel verdorven vinden.
Maar zoals enkelen aanhalen, zuiver het "bezit", oftewel een soort van "onder controle "afwijkend gedrag, resulteert quasi nooit in arrestatie en in hechtenis neming.
Daarvoor is deelname in productie of op zijn minst actieve verspreiding van zulk materiaal al nodig.

Meest recent BV scenario was toch ook actieve deelname aan chatrooms om eigen en verworven materiaal te delen/verspreiden.
 
Werkt AI niet op basis van bestaande foto's? Dan zou er eigenlijk al een database moeten zijn van allemaal foto's en zou infeite dus strafbaar moeten zijn
Via Google vind ik dit over de Australische wetgeving:

Under our child abuse material laws, even a representation of somebody under the age of 18, like a cartoon or an animated image, or even a written description can constitute child abuse material.

Ik neem aan dat het in België gelijkaardig is. Dus fictieve beelden worden gelijkgeschakeld met echte beelden. Ergo: AI-beelden zijn strafbaar.
 
Maar zoals enkelen aanhalen, zuiver het "bezit", oftewel een soort van "onder controle "afwijkend gedrag, resulteert quasi nooit in arrestatie en in hechtenis neming.
Daarvoor is deelname in productie of op zijn minst actieve verspreiding van zulk materiaal al nodig.

Meest recent BV scenario was toch ook actieve deelname aan chatrooms om eigen en verworven materiaal te delen/verspreiden.
Maar ook bvb het tekenen van kinderporno is iets dat wel strafbaar is en waar er geen slachtoffers zijn. Zelfde met bestialiteit, dat zijn zaken die we verbieden omdat ze te ver afwijken van onze ideeën over moraliteit en fatsoenlijkheid, niet omdat er slachtoffers zijn.
 
Werkt AI niet op basis van bestaande foto's? Dan zou er eigenlijk al een database moeten zijn van allemaal foto's en zou infeite dus strafbaar moeten zijn
Aangezien ze kinderfoto's kunnen genereren op basis van volwassene foto's, zal dat met porno ook wel lukken zeker. Hoe geloofwaardig die dingen dan zijn, geen idee van...
 
Maar ook bvb het tekenen van kinderporno is iets dat wel strafbaar is en waar er geen slachtoffers zijn. Zelfde met bestialiteit, dat zijn zaken die we verbieden omdat ze te ver afwijken van onze ideeën over moraliteit en fatsoenlijkheid, niet omdat er slachtoffers zijn.
Absoluut akkoord.

Maar zulke zaken resulteren niet in prompte aanhouding door de onderzoeksrechter, daar verwacht je naar huis gestuurd te worden al dan niet onder strikte voorwaarden. En een traject naar begeleiding dat moet uitgestippeld worden.

Wat aangeeft dat er hier toch vermoedelijk wat meer aan de hand is in dit geval. Arrestaties worden in regel uitgevoerd wanneer de maatschappij per onmiddellijk beschermd moet worden.
 
In die soort scenario's zijn er geen slachtoffers, stellen dat dit potentieel tot nieuwe slachtoffers leidt lijkt me ook wat de dezelfde gedachtegang als gewelddadige games die speler gewelddadig maken of satanische muziek die ik weet niet wat met luisteraars doet, het komt voort uit ons moreel oordeel, gecombineerd met wat confirmation bias geloven we heel graag dat het een slechte invloed heeft op mensen hun gedrag.
Ik hoop dat we elkaar verkeerd verstaan :).

Er zijn in dit soort scenario zeker slachtoffers. Als je bezit en verspreiding niet strafbaar maakt is alleen de maker strafbaar. Dus dan creëer je wel heel incentive om jolig in het openbaar te gaan delen. Bijgevolg wordt het maken ervan nog meer lucratief...
Ik beweer niet dat je meer pedofielen creëert door de content minder af te schermen. Ik beweer enkel dat je voor mensen met die gevoelens de drempel tot het consumeren van de content verlaagt als het consumeren van de content niet strafbaar zou zijn.
 
Ik hoop dat we elkaar verkeerd verstaan :).

Er zijn in dit soort scenario zeker slachtoffers. Als je bezit en verspreiding niet strafbaar maakt is alleen de maker strafbaar. Dus dan creëer je wel heel incentive om jolig in het openbaar te gaan delen. Bijgevolg wordt het maken ervan nog meer lucratief...
Ik beweer niet dat je meer pedofielen creëert door de content minder af te schermen. Ik beweer enkel dat je voor mensen met die gevoelens de drempel tot het consumeren van de content verlaagt als het consumeren van de content niet strafbaar zou zijn.
Bij getekende kinderporno zijn er geen slachtoffers. Bij getekende bestialiteiten ook niet.
Zoals Beryl zegt: dat is niet strafbaar omdat er slachtoffers zijn, maar omdat het tegen onze fatsoensnormen ingaat.

Ik vind dat een lastige. En met AI wordt het allemaal nog wat moeilijker ethisch (en makkelijker praktisch), maar ik weet ook niet goed of ik daar zo resoluut tegen zou zijn. Je zou kunnen zeggen dat dat zelfs slachtoffers kan voorkomen.
 
Bij getekende kinderporno zijn er geen slachtoffers. Bij getekende bestialiteiten ook niet.
Zoals Beryl zegt: dat is niet strafbaar omdat er slachtoffers zijn, maar omdat het tegen onze fatsoensnormen ingaat.

Ik vind dat een lastige. En met AI wordt het allemaal nog wat moeilijker ethisch (en makkelijker praktisch), maar ik weet ook niet goed of ik daar zo resoluut tegen zou zijn. Je zou kunnen zeggen dat dat zelfs slachtoffers kan voorkomen.

Leg die laatste zin eens uit
 
Ik vind dat een lastige. En met AI wordt het allemaal nog wat moeilijker ethisch (en makkelijker praktisch), maar ik weet ook niet goed of ik daar zo resoluut tegen zou zijn. Je zou kunnen zeggen dat dat zelfs slachtoffers kan voorkomen.
Als we AI gaan toelaten, hoe gaat ge AI van echte foto's onderscheiden? Dit wordt makkelijker voor pedo's om materiaal uit te wisselen
 
Maar zelfs als dit als "strategie" wordt gebruikt door Damen, het vermoeden van onschuld wordt daardoor toch quasi teniet gedaan. Indien werkelijk onschuldig zouden ze die tactiek zelfs niet eens overwegen me dunkt.
Hij zal wel op 1 of andere manier betrokken zijn, maar dat wil nog niet zeggen dat hij uiteindelijk ook schuldig is aan iets dat strafbaar is.
Puur hypothetisch, stel dat hij naar "tienerporno" gezocht heeft, en dat bleken 16-jarigen ipv 18-jarigen te zijn. Dan is dat technisch gezien strafbaar, maar de kans zit er in dat de rechter hem dan wel opschorting zou geven als hij als zo'n therapie doet.

Nu lijkt die kans me vrij klein aangezien hij direct is opgepakt terwijl het onderzoek nog loopt.
 
Kinderpornografie impliceert dat er echte kinderen "poseren" of "handelingen" moeten ondergaan

Er bestaat wel meer porno dan gefilmde scènes hé: audio, verhalen, strips, tekeningen, etc…
Kinderporno impliceert helemaal niet dat er kinderen misbruikt zijn. In het geval van Pichal lees ik in de pers echter zowel kinderporno als kindermisbruik, dus waarschijnlijk gaat het toch over video-materiaal al kan het ook gewoon de pers zijn die conclusies trekt…

Ivm welke vorm strafbaar is, dacht ik toch ook dat eender welke vorm strafbaar is. Al denk ik dat er in de praktijk toch een serieus verschil gemaakt zal worden afhankelijk van de vorm. Anderzijds meen ik recent iets gelezen te hebben over virtuele vormen die dan zogezegd een uitlaatklep zouden kunnen vormen voor pedofielen, maar mogelijk was dat gewoon een discussie/idee, dat momenteel in het huidig juridisch kader nog totaal niet kan.
 
Leg die laatste zin eens uit
Er zijn AI-toepassingen waaraan je afbeeldingen kunt vragen, en die worden dan gemaakt.
Je hebt iets als deze ook: https://generated.photos/human-generator/64e713a78448b8000c560d1c (nsfw bij het openen)

Dat is een "Human Generator". Kunt gewoon vragen "vrouw van middelbare leeftijd zittend op een rieten stoel, starend naar de zee". Maar evengoed "prepuberaal meisje naakt in bed". Uiteraard kan dat bij de meeste toepassingen niet, omdat het zit afgeschermd. Maar op zich weet ik niet goed wat ik ervan moet vinden. Of we dat moeten verbieden of niet. Je zou dus zelfs kunnen voorkomen dat dat slachtoffers kan voorkomen: dat meisje is geen echt meisje, maar een groepje pixels.

Als we AI gaan toelaten, hoe gaat ge AI van echte foto's onderscheiden? Dit wordt makkelijker voor pedo's om materiaal uit te wisselen
Het is nog heel eenvoudig om AI van echte foto's te onderscheiden.
 
Werkt AI niet op basis van bestaande foto's? Dan zou er eigenlijk al een database moeten zijn van allemaal foto's en zou infeite dus strafbaar moeten zijn

Volgens mij onderschat jij wat AI al allemaal kan. Je kan een foto laten genereren van Trump met Joe Biden op handen en voeten aan leiband. Ik denk niet dat er in een database al foto’s zijn van Biden die op de grond kruipt…
 
Bij getekende kinderporno zijn er geen slachtoffers. Bij getekende bestialiteiten ook niet.
Zoals Beryl zegt: dat is niet strafbaar omdat er slachtoffers zijn, maar omdat het tegen onze fatsoensnormen ingaat.

Ik vind dat een lastige. En met AI wordt het allemaal nog wat moeilijker ethisch (en makkelijker praktisch), maar ik weet ook niet goed of ik daar zo resoluut tegen zou zijn. Je zou kunnen zeggen dat dat zelfs slachtoffers kan voorkomen.
Je zou dat laatste inderdaad kunnen stellen, ook omdat pedofilie een geaardheid is waarvan je niet kan verwachten dat je die zomaar kan negeren of verdrukken - al is de maatschappelijke druk énorm. Het toelaten van AI (of bijvoorbeeld realistische seksrobotten in de toekomst) zet echter de deur open naar normalisatie en willen we die kant op?
 
Terug
Bovenaan