W sektorze firm związanych z AI widać zmiany w obszarze fuzji i przejęć - Kochański & Partners (wywiad)

Kotlowska.jpg

W sektorze firm związanych z AI widać zmiany w obszarze fuzji i przejęć - poinformowała PAP Biznes Natalia Kotłowska-Wochna, radca prawny i szefowa Praktyki New Tech M&A w kancelarii Kochański & Partners. Według niej, na razie ryzyka regulacyjne związane z AI nie mają decydującego wpływu na decyzje funduszy private equity.


"Jeśli chodzi o firmy związane z AI w Europie oraz fuzje i przejęcia w tym sektorze, zmiany są już zauważalne. Szczególnie w latach 2023-2024 wzrosła liczba transakcji dotyczących spółek opartych na sztucznej inteligencji lub wykorzystujących komponenty AI. Wzrost jest wyraźnie widoczny" - powiedziała PAP Biznes Natalia Kotłowska-Wochna, radca prawny i szefowa Praktyki New Tech M&A w kancelarii Kochański & Partners.

"Przede wszystkim na poziomie globalnym, zarówno liczba, jak i wartość transakcji (wolumen transakcji) związanych z firmami AI rosną. Nawet na rodzimym rynku, w 2024 roku, wśród najlepszych polskich startupów, czołówka z dziesięciu firm to były właśnie spółki związane z AI. To pokazuje dominację tego typu podmiotów na rynku" - dodała.

Natalia Kotłowska-Wochna, powołując się na dane Aventis Advisors podała, że według prognoz liczba przejęć AI w 2025 r. przekroczy 400 transakcji, przy skumulowanym rocznym wskaźniku wzrostu na poziomie 26 proc. w latach 2023-2025. Za ok. 38 proc. globalnych przejęć firm AI (2022-2024) odpowiadają Stany Zjednoczone, gdzie ponadto znajduje się większość wiodących innowatorów AI i firm technologicznych, tym samym napędzając ich dominację w zakresie M&A AI.

Zgodnie z danymi PWC "CEO Survey. Czas koniecznych przemian", jeśli chodzi o liczbę dużych przejęć, sytuacja w Polsce wygląda podobnie jak na świecie, choć polscy prezesi mają mniej ambitne plany. Aż 46 proc. z nich nie planuje żadnej akwizycji w najbliższych trzech latach, wobec 30 proc. na świecie.

Podała, że inwestorzy nadal szukają spółek, które pasują do ich zainteresowań wertykalnych, takich jak startupy edukacyjne czy technologie high-tech, jednak obecnie trudno wyobrazić sobie innowacyjny startup, który nie bazowałby na sztucznej inteligencji.

"Zresztą, AI jako technologia, w dużym uproszczeniu, to po prostu automatyzacja procesów i uczenie maszynowe, które od dawna wspierały wiele działań w różnych branżach. Teraz jednak z pewnością będziemy świadkami rosnącej liczby firm, które są stricte ukierunkowane na AI jako główny obszar ich działalności" – powiedziała.

"Myślę, że na razie ryzyka regulacyjne związane z AI nie mają decydującego wpływu na decyzje funduszy Private Equity. Oczywiście, jest to jeden z elementów branych pod uwagę, ale nie stanowi to głównego czynnika" – dodała.

Do tej pory ocena spółki obejmowała wiele kwestii regulacyjnych i technologicznych, takich jak zgodność z przepisami dotyczącymi ochrony danych osobowych, cyberbezpieczeństwa, a także przestrzeganie regulacji w kontekście własności intelektualnej (IP), znaków towarowych itp. Teraz dochodzi kolejny punkt do oceny – zgodność z AI Act.

AI jest też coraz mocniej obecne w projektach transakcyjnych od strony operacyjnej. Zgodnie z danymi DealRoom, w ciągu najbliższych trzech lat 80 proc. procesów M&A, obejmujących m. in. identyfikację targetów, due diligence, analizę finansowa, czy integrację po fuzji, będzie wykorzystywać sztuczną inteligencję.

Jak poinformowało w lutym Ministerstwo Cyfryzacji projekt ustawy o systemach sztucznej inteligencji został zmodyfikowany; wprowadzone zmiany dotyczą m.in. zasad nadzoru nad bezpieczeństwem produktów i usług czy wprowadzenia rozwiązań wspierających innowacje.

W projektowanej ustawie znalazł się rozdział, który został poświęcony wsparciu innowacji. Dzięki nowym przepisom przewodniczący Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji zyska możliwość powołania tzw. piaskownicy regulacyjnej, czyli przestrzeni do testowania nowych technologii.

"Myślę, że poprawki do ustawy o AI zmierzają w dobrą stronę, w pierwszym kwartale mają zostać opublikowane ostateczne przepisy" - powiedziała Natalia Kotłowska-Wochna.

"Mamy duże doświadczenie, choćby w kontekście ochrony danych osobowych, gdzie regulacje były już wprowadzane w podobny sposób, mimo że organy nadzorujące były odrębne. W związku z tym, myślę, że te przepisy również będą pozytywne. Niemniej jednak, warto poczekać chwilę na finalne wersje projektów, które niedługo się pojawią" – dodała.

Według niej, w związku z tym, że nie ma jeszcze regulacji prawnych, więc także dokładny mechanizm nadzoru i karania w kwestii AI jest nadal przed nami. Jeśli natomiast chodzi o gotowość polskich firm, to są one w trakcie przygotowań.

"Na dzień dzisiejszy uważam, że nadal wiele podmiotów nie będzie w pełni gotowych na te przepisy, zwłaszcza że nie wiemy jeszcze, jakie dokładnie podejście przyjmą organy regulacyjne" - powiedziała.

Wskazała, że w przypadku dużych spółek, szczególnie tych z kapitałem zagranicznym, przygotowania przebiegają dość zaawansowanie. Dzieje się to zgodnie z polityką nadrzędną tych firm – zwłaszcza amerykańskich i zachodnich.

"Te firmy już posiadają rozbudowane struktury compliance, a AI Act stanowi po prostu kolejny obszar, który muszą uwzględnić. Spółki te przygotowują się na poziomie polityk, procedur i dokumentów, nie tylko w kontekście europejskim, ale również globalnym" – powiedziała.

"Mniejsze spółki z pewnością będą to robiły wolniej – dla nich przygotowanie takich dokumentów i procedur, a także wdrożenie systemów compliance, nie jest priorytetem" - dodała.

Podała, że w kontekście AI widać także drugi obszar, który może być bardziej newralgiczny dla niektórych firm, zwłaszcza technologicznych - mowa o sytuacji, w której firma projektuje lub kupuje narzędzie wspierane przez AI, by z niego korzystać.

"W takim przypadku, jeśli firma opiera się na rozwiązaniu opartym na AI, niezależnie od tego, czy jest to dojrzała spółka, czy np. startup, który opracował innowacyjne narzędzie, trzeba wziąć pod uwagę, że choć 'wsparcie przez AI' brzmi atrakcyjnie, zwłaszcza w kontekście marketingowym, to z perspektywy prawnej wiąże się z koniecznością dokładnego sprawdzenia, co oznacza ten komponent AI w kontekście regulacji" - powiedziała Natalia Kotłowska-Wochna.

Dodała, że AI Act wyraźnie wskazuje, że jeśli firma korzysta z systemu AI, wiąże się to z szeregiem obowiązków. Co więcej, niektóre z tych systemów mogą być całkowicie zakazane.

"Mówi się, że przepisy dotyczące AI i nowych technologii w Europie są bardziej rygorystyczne w porównaniu do przepisów w Stanach Zjednoczonych. Jednak konkurencyjność polskich czy europejskich firm na arenie międzynarodowej powinna być oceniana z perspektywy +rynku zbytu+" - powiedziała Natalia Kotłowska-Wochna.

"Rzeczywiście, podmiot, który będzie miał mniejsze obciążenia regulacyjne, z całą pewnością będzie mógł działać bardziej innowacyjnie. Niemniej jednak, patrzyłabym na to przede wszystkim z perspektywy rynku odbiorcy" – dodała.

Jej zdaniem, amerykańskie, zachodnie, a już tym bardziej chińskie podmioty mogą teoretycznie rozwijać się szybciej na swoich rodzimych rynkach, ponieważ mają mniejsze obostrzenia.

"Nie ma co ukrywać, że ich warunki są bardziej sprzyjające. Natomiast unijne akty prawne mają swoją specyfikę – regulują korzystanie z pewnych narzędzi, a przede wszystkim zapewniają ochronę odbiorców tych narzędzi na terytorium Unii. A zatem każde narzędzie – jeśli docelowo ma być kierowane do odbiorców z Unii będzie musiało spełnić te same wymogi lub być do nich dostosowane" – powiedziała.

"Natomiast w kwestii, co tak naprawdę oznacza AI Act dla firm, to czasami pojawia się niezrozumienie, że AI Act to ogromna rewolucja dla firm technologicznych. Ja bym powiedziała, że to przede wszystkim rewolucja dla firm spoza sektora technologicznego. Dla firm technologicznych to raczej codzienność" – dodała.

Wskazała, że AI Act stanowi, że jeśli podmiot tworzy coś, co jest zdefiniowane jako system sztucznej inteligencji, jeśli go sprzedaje, używa lub dostarcza do końcowych odbiorców, to musi spełnić określone obowiązki.

"Według różnych raportów w najbliższych latach aż 80 proc. firm będzie bazować na systemach AI. Więc pierwszym krokiem, który każda firma powinna podjąć, jest zidentyfikowanie wszystkich narzędzi, które mają komponent sztucznej inteligencji. Następnie muszą ocenić, czy te narzędzia spełniają definicję systemu AI, która jest zawarta w AI Act" – powiedziała Natalia Kotłowska-Wochna.

"Definicja systemu AI to kluczowy temat, na którym teraz skupiamy się jako prawnicy. Zawiera ona sześć przesłanek obligatoryjnych oraz jedną fakultatywną. Ocena, czy dane narzędzie stanowi system AI, może być trudna, ponieważ definicja opiera się na aspektach technicznych, takich jak poziom autonomii czy zautomatyzowania" – dodała.

Podała, że pierwszym dużym zadaniem dla firm jest zatem odpowiedź na pytanie, czy ich narzędzie stanowi system AI. Jeśli odpowiedź będzie pozytywna, oznacza to, że firma będzie zobowiązana do spełnienia szeregu obowiązków.

"Rodzaj obowiązków zależy od klasyfikacji ryzyka. AI Act mówi o systemach zakazanych – te będzie łatwo zidentyfikować (np. systemy oceny społecznej). Raczej żadna typowa firma nie będzie próbować opracowywać narzędzi spełniających definicję zakazanego systemu AI" - powiedziała.

Następnie są systemy wysokiego, ograniczonego i minimalnego ryzyka, a obowiązki firmy będą różne w zależności od tego, do której klasyfikacji będzie należeć ich narzędzie.

"Właśnie 3/4 przepisów AI Act dotyczy systemów wysokiego ryzyka. Przepisy te w pełni wchodzą w życie na początku sierpnia 2027 roku, co oznacza, że firmy, których systemy będą klasyfikowane jako wysokiego ryzyka, będą musiały spełnić szereg obowiązków, takich jak przeprowadzenie analizy ryzyka, przygotowanie odpowiednich procedur, zapewnienie kontroli nad narzędziem i nadzór nad jego działaniem" - powiedziała.

Dodała, że w przypadku systemów o niższym ryzyku obowiązków jest nieco mniej.

"To wyzwanie, które może być szczególnie trudne dla mniejszych firm, które mają ograniczone budżety. Z pewnością nie będą one priorytetowo traktować tych kwestii, ponieważ to jest spore wyzwanie organizacyjne i finansowe" – powiedziała.

"Z drugiej strony, innowacyjne narzędzia często są tworzone przez startupy. I to jest interesujący wątek – startupy, które chcą wypuszczać na rynek narzędzia bazujące na AI, muszą być odpowiednio przygotowane pod względem proceduralnym i dokumentacyjnym. W szczególności, jeśli takie startupy mają na celu pozyskanie inwestycji, muszą być gotowe na badanie zgodności swojego systemu z regulacjami, które wejdą w życie w najbliższym czasie" - dodała.

W jej ocenie definicja systemu AI jest szczegółowa, ale nadal nie do końca jasna.

"Chociaż Komisja Europejska opublikowała wytyczne, jak ją rozumieć, to wciąż pozostają wątpliwości, co do tego, jak interpretować tę definicję w praktyce. Różni eksperci mogą mieć różne opinie – jeden oceni rozwiązanie jako system AI, a drugi może wnioskować, iż przesłanki nie zostały spełnione. Granica na chwilę obecną zdaje się być bardzo cienka, a konsekwencje są duże. Rozumienie tej definicji będzie z pewnością ewoluować" - powiedziała Natalia Kotłowska-Wochna.

Dodała, że to dodatkowo komplikuje sytuację startupów technologicznych, które mogą nie mieć wystarczających zasobów, by w pełni przygotować się na zmiany w regulacjach.

Anna Lalek (PAP Biznes)

alk/ osz/

© Copyright
Wszelkie materiały (w szczególności depesze agencyjne, zdjęcia, grafiki, filmy) zamieszczone w niniejszym Portalu PAP Biznes chronione są przepisami ustawy z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych oraz ustawy z dnia 27 lipca 2001 r. o ochronie baz danych. Materiały te mogą być wykorzystywane wyłącznie na postawie stosownych umów licencyjnych. Jakiekolwiek ich wykorzystywanie przez użytkowników Portalu, poza przewidzianymi przez przepisy prawa wyjątkami, w szczególności dozwolonym użytkiem osobistym, bez ważnej umowy licencyjnej jest zabronione.

Waluty

Waluta Kurs Zmiana
1 CHF 4,3573 -0,03%
1 EUR 4,1852 -0,31%
1 GBP 4,9910 0,20%
100 JPY 2,6048 0,42%
1 USD 3,8520 0,13%