Што да не се прашува вештачката интелигенција, а што да не открие! За ова можете дури и да бидете пријавувани во полиција!
Големите јазични модели, т.е. алатките со вештачка интелигенција, речиси станаа незаменлив дел од секојдневниот живот. Дури и ако не ги користите активно секој ден, голема е веројатноста да се потпрете на услуга што користи модел на вештачка интелигенција во позадина како ChatGPT, Gemini, Perplexity и слично.
Иако многумина се потпираат на овие услуги за да им помогнат во нивните обврски, без разлика дали се деловни или лични, тие често не се свесни дека секоја употреба на такви алатки може да претставува одреден безбедносен ризик.
Имено, во желбата да се заврши задачата што е можно побрзо, луѓето често откриваат чувствителни и лични информации на чет-ботови со вештачка интелигенција кои не треба да се споделуваат со други луѓе. Но, четботите не се луѓе, нели?
Всушност, во овој контекст, тие треба да се гледаат како личности – бидејќи како што на никого на улица не би му кажале доверливи информации за себе или за компанијата во која работите, така не треба да ги внесувате ниту во моделите со вештачка интелигенција.
Иако компаниите кои ги развиваат овие модели генерално не користат разговори со корисници за дополнителна обука (иако, на пример, DeepSeek го прави токму тоа), тоа не значи дека податоците што ги внесовте не се зачувани во вашата корисничка сметка. Доволно е некој да седне на вашиот компјутер, да го отвори вашиот омилен модел со вештачка интелигенција и да ја прегледа историјата на разговори – и на тој начин да добие чувствителни информации.

Кои чувствителни податоци не треба да ги споделувате?
Лични податоци
Без оглед на нивото на доверба што го имате во моделите со вештачка интелигенција, никогаш не треба да го споделувате вашето полно име, адреса, матичен број, пасош и слични информации. Истото важи и за фотографиите од документите за идентификација.
Ако користите чет-бот за креирање на вашето CV, подобро е да барате образец за да го пополните сами на вашиот компјутер, наместо директно да внесувате лични податоци.
Финансиски информации
Исто како што никогаш не би споделиле броеви на кредитни или дебитни картички, информации за банкарска сметка или шифри за е-банкарство, така и тие информации не треба да се споделуваат со моделите со вештачка интелигенција.
Ако барате кредитни или даночни совети, користете „измислено сценарио“, а не вистински податоци.
Лозинки
Ова се подразбира – споделувањето лозинки за кориснички сметки или деловни системи е крајно неодговорно. Исто како што не би ги давале клучевите од вашиот стан на странец, не ги откривајте податоците за пристап ниту на моделите со вештачка интелигенција.
Чувствителни или доверливи информации
Моделите со вештачка интелигенција не ви се доверливи или најдобри пријатели – не им откривајте лични или туѓи тајни, здравствени информации, семејни информации или работни озборувања. Таквите податоци треба да останат приватни.

Информации за компанијата каде што работите или соработувате
Можеби е примамливо да му се довери на ChatGPT задачата за пишување на договорот, но тоа не е добра идеја. Истото важи и за документите со доверливи информации – како што се прототипи, патенти, состаноци, деловни планови и финансии. Затоа многу компании забрануваат употреба на алатки за вештачка интелигенција на официјални уреди.
Експлицитна содржина
Дури и ако се шегувате, прашањата како „како трајно да се ослободите од некого“ може да се означат како сомнителни и да се пријават во полиција. ChatGPT не одговара на таквите барања, но другите модели може да ги следат и проследуваат таквите информации. Подобро воздржете се.
Медицински информации
Иако можеби сте го замениле „Dr. Google“ со ChatGPT, не споделувате специфики од здравствените извештаи. Наместо тоа, поставете општо прашање – на пример: „Препорачај вежби за маж во триесеттите со ишијас“.
Ако не сте сигурни дали треба да споделите нешто, запомнете го ова едноставно правило – ако не сакате вашето барање да се чита јавно на Интернет, табли за пораки или во медиумите, веројатно не сакате ниту модел со вештачка интелигенција да го чита.