Sztuczna inteligencja w firmach. Oto główne zagrożenie
Chociaż przedsiębiorstwa zrozumiały i doceniły potencjał generatywnej sztucznej inteligencji w kontekście tworzenia nowych pomysłów i zwiększania wydajności, istnieje ryzyko związane z wprowadzaniem wrażliwych i chronionych danych do publicznie dostępnych dużych modeli językowych, znanych jako LLM. Szczegóły wyjaśnia Torsten Grabs, Senior Director of Product Management z firmy Snowflake.
28.09.2023 | aktual.: 17.01.2024 19:19
Wprowadzenie takich danych stwarza zagrożenia dla bezpieczeństwa, prywatności i zarządzania. Dlatego przedsiębiorstwa muszą znaleźć sposób na radzenie sobie z nimi, zanim zaczną korzystać z korzyści płynących z wykorzystania nowej technologii.
Jak zauważa IDC, przedsiębiorcy mają powody do obaw, że LLM mogą "uczyć się" na podstawie zapytań i ujawniać te informacje innym firmom, które mogą wprowadzać podobne polecenia. Właściciele firm są zaniepokojeni, że wrażliwe dane, mogą być przechowywane online i narażone na ataki hakerów. To sprawia, że wprowadzanie danych i poleceń do publicznie dostępnych LLM nie jest dobrym rozwiązaniem dla przedsiębiorstw, zwłaszcza tych działających w obszarach objętych regulacjami.
Jednym z rozwiązań jest przeniesienie LLM do swoich danych, a nie przesyłanie swoich danych do LLM. Jest to opcja, którą większość przedsiębiorstw będzie wybierać, aby zrównoważyć potrzebę innowacji z koniecznością ochrony danych. Większość dużych firm już utrzymuje silną granicę bezpieczeństwa wokół swoich danych. Te organizacje powinny również hostować i wdrażać LLM wewnątrz chronionego środowiska. Pozwoli to zespołom ds. danych na dalsze rozwijanie i dostosowywanie LLM, a pracownikom na interakcję z nim w ramach istniejącego obwodu bezpieczeństwa.
Dalsza część artykułu pod materiałem wideo
Mniejsze modele też są skuteczne
Model LLM nie musi być obszerny, aby był użyteczny. "Garbage in, garbage out" jest uniwersalną prawdą dla każdego modelu AI, a przedsiębiorstwa powinny dostosowywać swoje modele przy użyciu wewnętrznych danych, którym mogą zaufać i które dostarczą im potrzebnych informacji. Pracownicy mogą chcieć na przykład zapytać o sprzedaż w regionie północno-zachodnim lub o korzyści wynikające z umowy z konkretnym klientem. Odpowiedzi na te pytania można uzyskać, dostrajając LLM do własnych danych w bezpiecznym i zarządzanym środowisku.
Optymalizacja LLM dla przedsiębiorstwa może przynieść nie tylko lepszą jakość wyników, ale również pomóc w zmniejszeniu zapotrzebowania na zasoby. Mniejsze modele ukierunkowane na konkretne przypadki użycia w firmie zwykle wymagają mniejszej mocy obliczeniowej i mniej pamięci niż modele zbudowane dla przypadków użycia ogólnego przeznaczenia lub dużej różnorodności przypadków użycia w różnych branżach. Ukierunkowanie LLM na przypadki użycia w przedsiębiorstwie pozwoli uruchomić model w bardziej opłacalny i wydajny sposób.
Większości danych nie da się łatwo przechować
Dostrajanie modelu do wewnętrznych systemów i danych wymaga dostępu do wszystkich informacji, które mogą być przydatne. Wiele z nich będzie przechowywanych w formatach innych niż tekstowe. Około 80 proc. danych na świecie to dane nieustrukturyzowane, w tym dane firmowe, takie jak e-maile, obrazy, umowy i filmy szkoleniowe. Oznacza to konieczność stosowania technologii takich jak przetwarzanie języka naturalnego w celu wyodrębnienia informacji ze źródeł i udostępnienia ich analitykom , aby mogli oni budować i trenować multimodalne modele AI.
AI to obszar charakteryzujący się szybkim rozwojem. Firmy powinny więc zachować ostrożność przy każdym podejściu do generatywnej sztucznej inteligencji. Wiąże się to m.in. z czytaniem wszystkich opracowanych nawet drobnym drukiem zapisów na temat modeli i usług, z których korzystają, a także współpracą z renomowanymi dostawcami, którzy oferują gwarancje dotyczące dostarczanych modeli. Należy zachować równowagę między ryzykiem a korzyściami.