ხელოვნურმა ინტელექტმა 20 წელიწადში შეიძლება გლობალური ეპიდემია ან პანდემია გამოიწვიოს
რომ ხელოვნურმა ინტელექტმა (AI) მომავალში შესაძლოა გამოიწვიოს ახალი ეპიდემიები ან პანდემიები. მათ აღნიშნეს, რომ თანამედროვე ხელოვნური ინტელექტის მოდელებს აქვთ დიდი მოცულობის ბიოლოგიური მონაცემების დამუშავების უნარი, რამაც შეიძლება დააჩქაროს წამლების განვითარება და გამოიწვიოს საშიში პათოგენების შექმნა, იუწყება Fox News.
ხელოვნური ინტელექტის სასარგებლო შესაძლებლობების მიუხედავად, აქვს უარყოფითი მხარეც.
ტექნოლოგიის მრავალფეროვნება შეიძლება გახდეს საფრთხე - ბიოლოგიური მოდელი, რომელიც ქმნის კეთილთვისებიან ვირუსს გენური თერაპიისთვის, შეიძლება გამოყენებულ იქნას პათოგენების შესაქმნელად, რომლებსაც შეუძლიათ ვაქცინაციის შედეგად გამოწვეული იმუნიტეტის დაძლევა, - ნათქვამია სამეცნიერო ნაშრომში, რომელიც გამოქვეყნდა ჟურნალში Science.
მეცნიერები მოუწოდებენ მთავრობებს, მათ შორის აშშ-ს მთავრობას, შემოიღონ მკაცრი რეგულაციები, რათა თავიდან აიცილონ ასეთი საშიში ბიოლოგიური აგენტების შექმნა და გავრცელება.
- მკვლევარები ირწმუნებიან, რომ ხელოვნური ინტელექტის შემქმნელების ნებაყოფლობითი ზომები საკმარისი არ არის. მათ მოუწოდეს შეიქმნას სპეციალური "ტესტების ნაკრები", რომელიც ყველა ბიოლოგიურმა მოდელმა უნდა გაიაროს. ეს ხელს შეუწყობს ასეთ მოდელებზე წვდომის დონის დადგენას და შეზღუდავს მათ გამოყენებას პოტენციური საფრთხის შემთხვევაში.
ანიტა ციცერონმა, ჯონს ჰოპკინსის ჯანმრთელობის უსაფრთხოების ცენტრის ასოცირებულმა დირექტორმა, თქვა, რომ სამთავრობო ზედამხედველობა ახლავე უნდა დაიწყოს რისკების შესამცირებლად.
სათანადო კონტროლის გარეშე, AI-თან დაკავშირებული ბიოლოგიური რისკები შეიძლება რეალობად იქცეს მომდევნო 20 წლის განმავლობაში და შესაძლოა უფრო ადრეც, ამბობენ ექსპერტები. AI ექსპერტმა პოლ პაუერსმა აღნიშნა, რომ ხელოვნური ინტელექტის განვითარება მოსალოდნელზე უფრო სწრაფად ხდება. მან ხაზგასმით აღნიშნა, რომ მარეგულირებლები ვერ მისდევენ ხელოვნური ინტელექტის განვითარებას და მათ შესთავაზა დაიწყონ პოტენციურად საშიში პათოგენების შესაქმნელად აუცილებელი ძირითადი კომპონენტების წვდომის კონტროლი.
AI-სგან ბიოლოგიური საფრთხის თემას Bloomberg უკვე შეეხო.
- 2024 წლის აგვისტოს დასაწყისში გამოცხადდა, რომ ხელოვნური ინტელექტის ჩატბოტებს შეუძლიათ დაეხმარონ მომხმარებლებს ბიოლოგიური იარაღის შექმნაში.
მანამდე ცნობილი გახდა, რომ ხელოვნური ინტელექტის სფეროში მსხვილმა კომპანიებმა, მათ შორის OpenAI, Anthropic და Microsoft, პირობა დადეს, რომ შეაფასებდნენ ბიოუსაფრთხოების სფეროში „ყველაზე მნიშვნელოვან რისკებს“.