Mākslīgajam intelektam (MI) kā automatizētām sistēmām būtu jāskenē visas privātās ziņas, lai pārbaudītu, vai tajās nav bērnu seksuālās izmantošanas materiālu (CSAM), uzmākšanās u.tml. Tas ietver arī ziņas, kas tiek sūtītas privāti šifrētās platformās kā WhatsApp, Signal, iMessage utt.
Tehniski tas var nozīmēt, ka ziņa tiek analizēta jau lietotāja ierīcē, pirms tā tiek nosūtīta vai šifrēta.
- Ja mērķis ir aizsargāt bērnus, tad jāfokusējas uz mērķētiem pasākumiem, nevis vispārēju uzraudzību.
- MI jeb AI var palīdzēt analizējot jau iesniegtus likumīgus ziņojumus, nevis “analizējot un zīlējot”, ko cilvēki privāti raksta viens otram
Kāpēc “Chat Control” ir problēma?
- Privātuma pārkāpums: Pat, ja neko nelikumīgu nesūti, pilnigī viss un arī tava sarakste tiek skenēta.
- MI nav perfekts — tas var kļūdaini identificēt legālu saturu kā CSAM. Piemēram, nepareizi interpretēt joku, ironiju vai kontekstu. Tas var novest pie nepamatotas ziņošanas, konta bloķēšanas vai pat kriminālizmeklēšanas.
- Ja reiz iedibina mehānismu, kur MI skenē visus ziņojumus, tad var pievienot jaunas “mērķa kategorijas” kā “naida runa”, “dezinformācija”, “politiski aizdomīgs saturs” utt.
Tiek ielikts pamats totalitārai kontrolei digitālajā telpā Eiropas Savienībā. Kā rāda pieredze agri vai vēlu sādi mehānismi tiek pagriezti pret sabiedrības interesēm un ir vienalga kādā no pusēm jūs esat ievadā pieminētajos piemēros, būs 4 un 5 precedents, kad arī jūs sapratīsiet, ka tas ir pret jums un kā tā vispār drīkst. Bet kauliņi jau būs mesti…
Kāds ir jūsu viedoklis par šo?





















