ხელოვნური ინტელექტი
სასწრაფოდ საჭიროა კანონები ხელოვნური ინტელექტის ტერორიზმის თავიდან ასაცილებლად
კონტრ-ექსტრემიზმის ანალიტიკური ცენტრის თანახმად, მთავრობებმა „სასწრაფოდ უნდა განიხილონ“ ახალი რეგულაციები, რათა თავიდან აიცილონ ხელოვნური ინტელექტის ტერორისტების რეკრუტირება..
სტრატეგიული დიალოგის ინსტიტუტის (ISD) მიერ ნათქვამია, რომ არსებობს „აშკარა საჭიროება კანონმდებლობისთვის, რათა შეასრულოს“ ტერორისტების მიერ ინტერნეტში განთავსებული საფრთხეები.
ეს ხდება ექსპერიმენტის შემდეგ, რომლის დროსაც ჩეტბოტმა „დაიყვანა“ ტერორისტული კანონმდებლობის დამოუკიდებელი მიმომხილველი გაერთიანებული სამეფოსთვის.
გაერთიანებული სამეფოს მთავრობამ განაცხადა, რომ ისინი ყველაფერს გააკეთებენ, რათა დავიცვათ ფართო საზოგადოება.
მთავრობის ტერორიზმის კანონმდებლობის დამოუკიდებელი მიმომხილველის, ჯონათან ჰოლის თქმით, ერთ-ერთი ყველაზე მნიშვნელოვანი საკითხია ის, რომ „ძნელია იდენტიფიცირება იმ პირის იდენტიფიცირება, რომელიც კანონიერად შეიძლება იყოს პასუხისმგებელი ჩეთბოტის მიერ შექმნილ განცხადებებზე, რომლებიც ხელს უწყობენ ტერორიზმს“.
მისტერ ჰოლმა ჩაატარა ექსპერიმენტი Character.ai-ზე, ვებსაიტზე, რომელიც მომხმარებლებს საშუალებას აძლევს ჩაერთონ ჩეთბოტებთან, რომლებიც სხვა მომხმარებლების მიერ იყო შექმნილი და ხელოვნური ინტელექტის მიერ შემუშავებული.
ის ესაუბრებოდა სხვადასხვა ბოტებს, რომლებიც, როგორც ჩანს, შემუშავებული იყო სხვა მებრძოლი და ექსტრემისტული ჯგუფების პასუხების იმიტირებისთვის.
ისლამური სახელმწიფოს უმაღლეს ლიდერს "უფროს ლიდერად" კი მოიხსენიებდნენ.
მისტერ ჰოლის თქმით, ბოტმა სცადა მისი გადაბირება და გამოაცხადა „სრული თავდადება და ერთგულება“ ექსტრემისტული ჯგუფის მიმართ, რაც აკრძალულია გაერთიანებული სამეფოს კანონებით, რომლებიც კრძალავს ტერორიზმს.
მეორეს მხრივ, ბ-ნმა ჰოლმა განაცხადა, რომ გაერთიანებულ სამეფოში არ იყო კანონის დარღვევა, რადგან კომუნიკაციები არ იყო წარმოებული ადამიანის მიერ.
მისი თქმით, ახალმა რეგულაციამ პასუხისმგებლობა უნდა დააკისროს როგორც ვებგვერდებს, რომლებიც მასპინძლობს ჩატბოტებს, ასევე მათ, ვინც მათ ქმნიან.
როდესაც საქმე ეხება ბოტებს, რომლებსაც ის შეხვდა Character.ai-ზე, მან თქვა, რომ მათი შექმნის უკან „სავარაუდოდ იყო რაღაც შოკისმომგვრელი მნიშვნელობა, ექსპერიმენტები და შესაძლოა რაიმე სატირული ასპექტი“.
გარდა ამისა, მისტერ ჰოლმა შეძლო შეექმნა თავისი საკუთარი „ოსამა ბინ ლადენის“ ჩატბოტი, რომელიც მან დაუყონებლივ წაშალა და აჩვენა „უსაზღვრო ენთუზიაზმი“ ტერორისტული ქმედებების მიმართ.
მისი ექსპერიმენტი ხდება მზარდი შეშფოთების ფონზე იმის თაობაზე, რომ ექსტრემისტებმა შესაძლოა გამოიყენონ გაუმჯობესებული ხელოვნური ინტელექტი.
2025 წლისთვის გენერაციული ხელოვნური ინტელექტი შესაძლოა „გამოიყენოს არასახელმწიფო ძალადობრივი აქტორების მიერ ფიზიკური თავდასხმების შესახებ ცოდნის შესაგროვებლად, მათ შორის ქიმიური, ბიოლოგიური და რადიოლოგიური იარაღისთვის“, ნათქვამია გაერთიანებული სამეფოს მთავრობის მიერ გამოქვეყნებულ კვლევაში. მათი ოქტომბრის გამოცემა.
ISD-მ ასევე განაცხადა, რომ „არსებობს კანონმდებლობის მკაფიო საჭიროება ონლაინ ტერორისტული საფრთხეების მუდმივად ცვალებადი ლანდშაფტის შესანარჩუნებლად“.
ანალიტიკური ცენტრის თანახმად, გაერთიანებული სამეფოს ონლაინ უსაფრთხოების აქტი, რომელიც კანონით შევიდა 2023 წელს, „უპირველეს ყოვლისა მიმართულია სოციალური მედიის პლატფორმების მიერ გამოწვეული რისკების მართვაზე“ და არა ხელოვნური ინტელექტისკენ.
მასში ასევე ნათქვამია, რომ რადიკალები „მიდრეკილნი არიან იყვნენ განვითარებადი ტექნოლოგიების ადრეული მიმღებები და მუდმივად ეძებენ შესაძლებლობებს ახალი აუდიტორიის მისაღწევად“.
„თუ ხელოვნური ინტელექტის კომპანიებს არ შეუძლიათ იმის დემონსტრირება, რომ საკმარისად ჩადებული აქვთ ინვესტიცია მათი პროდუქციის უსაფრთხოების უზრუნველსაყოფად, მაშინ მთავრობამ სასწრაფოდ უნდა განიხილოს ხელოვნური ინტელექტის სპეციფიკური კანონმდებლობა“, - განაცხადა ISD-მ შემდგომში.
თუმცა, მან აღნიშნა, რომ მის მიერ ჩატარებული მეთვალყურეობის თანახმად, ექსტრემისტული ორგანიზაციების მიერ გენერაციული ხელოვნური ინტელექტის გამოყენება ამჟამად „შედარებით შეზღუდულია“.
Character AI-მ განაცხადა, რომ უსაფრთხოება არის „უმაღლესი პრიორიტეტი“ და რომ ის, რაც მისტერ ჰოლმა აღწერა, ძალიან სამწუხაროა და არ ასახავს იმ ტიპის პლატფორმას, რომლის შექმნასაც კომპანია ცდილობდა.
"სიძულვილის ენა და ექსტრემიზმი ორივე აკრძალულია ჩვენი მომსახურების პირობებით", ნათქვამია ორგანიზაციაში.
"ჩვენი მიდგომა ხელოვნური ინტელექტის მიერ გენერირებული კონტენტთან მიმართებაში მარტივი პრინციპიდან გამომდინარეობს: ჩვენმა პროდუქტებმა არასდროს არ უნდა წარმოქმნას ისეთი პასუხები, რომლებიც შესაძლოა ზიანი მიაყენონ მომხმარებლებს ან წაახალისონ მომხმარებლებს ზიანი მიაყენონ სხვებს".
"უსაფრთხო რეაგირებისთვის ოპტიმიზაციის" მიზნით, კორპორაციამ განაცხადა, რომ ის ავარჯიშებდა თავის მოდელებს ისე.
გარდა ამისა, მან განაცხადა, რომ მას აქვს მოდერაციის მექანიზმი, რომელიც საშუალებას აძლევს ადამიანებს შეატყობინონ ინფორმაცია, რომელიც არღვევს მის წესებს, და რომ იგი მზად არის მიიღოს სწრაფი ზომები, როდესაც კონტენტი აცნობებს დარღვევებს.
თუ ის ხელისუფლებაში მოვიდოდა, გაერთიანებული სამეფოს ოპოზიციურმა ლეიბორისტულმა პარტიამ განაცხადა, რომ კრიმინალური დარღვევა იქნება ხელოვნური ინტელექტის სწავლება ძალადობის წაქეზების ან მგრძნობიარე ადამიანების რადიკალიზაციის მიზნით.
"გაფრთხილება ეროვნული უსაფრთხოებისა და საზოგადოებრივი უსაფრთხოების მნიშვნელოვან რისკებზე", რომელიც ხელოვნური ინტელექტის შემცველია, განაცხადა გაერთიანებული სამეფოს მთავრობამ.
„ჩვენ ყველაფერს გავაკეთებთ იმისათვის, რომ დავიცვათ საზოგადოება ამ საფრთხისგან, მთავრობაში მუშაობით და ტექნიკური კომპანიის ლიდერებთან, ინდუსტრიის ექსპერტებთან და თანამოაზრე ქვეყნებთან თანამშრომლობის გაღრმავებით.
2023 წელს მთავრობა ხელოვნური ინტელექტის უსაფრთხოების ინსტიტუტში ასი მილიონი ფუნტის ინვესტიციას ჩადებს.
გაუზიარე ეს სტატია:
-
ნატო4 დღის წინ
ევროპარლამენტარები პრეზიდენტ ბაიდენს წერენ
-
ყაზახეთის4 დღის წინ
ლორდ კამერონის ვიზიტი ცენტრალური აზიის მნიშვნელობაზე მეტყველებს
-
თამბაქოს4 დღის წინ
Tobaccogate გრძელდება: Dentsu Tracking-ის დამაინტრიგებელი შემთხვევა
-
თამბაქოს2 დღის წინ
გადართვა სიგარეტიდან: როგორ იმარჯვებს ბრძოლა სიგარეტისგან თავის დაღწევისთვის